Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Новинка
Распродажа
Новости
Доставка
Оплата
Загрузки
  • Прошивки
    • WinBox
    • RouterOS
    • Мобильные приложения MikroTik
    • Архив
  • Changelogs
  • RouterOS
  • Мобильные приложения MikroTik
  • Архив
Форум
Настройка
    info@mikrotik.moscow
    +7 495 320-55-52
    Заказать звонок
    Mikrotik.moscow
    Каталог
    • Акции
      Акции
    • Маршрутизаторы
      Маршрутизаторы
    • Коммутаторы
      Коммутаторы
    • Радиомосты и уличные точки доступа
      Радиомосты и уличные точки доступа
    • Wi-Fi для дома и офиса
      Wi-Fi для дома и офиса
    • LTE/5G
      LTE/5G
    • Powerline адаптеры
      Powerline адаптеры
    • IoT устройства
      IoT устройства
    • Оборудование 60 ГГц
      Оборудование 60 ГГц
    • Материнские платы RouterBOARD
      Материнские платы RouterBOARD
    • Корпуса
      Корпуса
    • Интерфейсы
      Интерфейсы
    • SFP/QSFP трансиверы
      SFP/QSFP трансиверы
    • Аксессуары
      Аксессуары
    • Антенны
      Антенны
    • Архив
      Архив
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Скачать WinBox Скачать Прошивки Форум > RouterOS Форум > SwOS Форум > Железо
    Mikrotik.moscow
    Каталог
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Mikrotik.moscow
    Телефоны
    +7 495 320-55-52
    Заказать звонок
    0
    0
    0
    Mikrotik.moscow
    • +7 495 320-55-52
      • Назад
      • Телефоны
      • +7 495 320-55-52
      • Заказать звонок
    • info@mikrotik.moscow
    • г. Москва, ул. Бакунинская, 84
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной


    • Кабинет
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    RouterOS
    CHR Hardware

    CHR Hardware

    Форумы: RouterOS, Аппаратное обеспечение, SwOS, Обратная связь, Объявления, Сторонние инструменты
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    CHR Hardware, RouterOS
     
    Wolfraider
    Guest
    #1
    0
    18.03.2019 20:38:00
    Мы работаем над новыми маршрутизаторами для нашей основной сети. У нас будут два независимых 10Gb партнёра и полные таблицы от каждого. Какой сервер с низкой стоимостью будет хорош для запуска CHR? Признаюсь, я не занимался серверами несколько лет и почти потерялся во всех новых вариантах. Мы собираемся получить два сервера с ESXi и запустить на каждом из них CHR, выделив все ресурсы для CHR. Мы бы хотели уложиться в бюджет в $1000 на каждый сервер. Текущая нагрузка составляет 8.4Gbps в пиковые часы каждую ночь, с ожидаемым ростом до 12Gbps к концу лета, распределённым между двумя маршрутизаторами. Я подумал о следующем варианте, но не уверен, справится ли он с нагрузкой: два процессора Intel DP L5640 2.26GHz, 32Gb DDR3 1333 RAM, 2 - 500Gb SSD в зеркале, Intel dual port 10Gb nic за $912.
     
     
     
    TomjNorthIdaho
    Guest
    #2
    0
    07.06.2019 15:27:00
    Вот что я бы предложил рассмотреть: ЦП (количество 2): Intel Xeon E5 Family Intel CM8066002024000 Xeon E5-2698 v4 - 2.2 ГГц - 20 ядер - 40 потоков - 50 МБ кэш - сокет LGA2011 - OEM ядер: 20-ядерная серия: Intel Xeon E5 Family L2 кэш: 20 x 256KB L3 кэш: 50MB С 50 МБ кэша у вас высокая вероятность большего количества попаданий в кэш ЦП. Попадания в кэш ЦП помогут поддерживать вашу CHR на скорости тактовой частоты ЦП, а не на скорости оперативной памяти. Кроме того, не используйте гиперпоточность North Idaho Tom Jones.
     
     
     
    angriukas
    Guest
    #3
    0
    03.07.2019 12:11:00
    Попробуйте использовать платформу виртуализации Proxmox (PVE). Я только что успешно протестировал CHR на PVE с гипервизором KVM. Виртуальная машина CHR поддерживает следующие интерфейсы: диск - SATA или Virtio (для загрузки CHR). Сеть - все типы, но только Virtio и vmxnet (VMWare) поддерживают 10G. Лучше везде использовать интерфейсы типа Virtio, так как это обеспечивает лучшую интеграцию с PVE. Кластер высокой доступности (HA) может быть построен с минимально 3 физическими серверами. HA означает - одна и та же файловая система на всех физических серверах (один и тот же образ виртуальной машины - на всех узлах). Если Node1 выйдет из строя - виртуальная машина автоматически запустится на следующем узле. В случае HA, для лучшей производительности используйте CPU хоста или используйте более низкий тип CPU на ваших узлах. Я думаю, что тип CPU по умолчанию kvm64 тоже будет вполне хорош. Мы используем PVE в нашем офисе уже несколько лет, не для CHR, а для других задач. Если хотите, я могу проконсультировать вас по поводу PVE. Это отличная платформа с открытым исходным кодом и бесплатна (без подписки).
     
     
     
    wpeople
    Guest
    #4
    0
    24.09.2019 14:27:00
    По моему опыту (в ЛАБе), Proxmox гораздо быстрее для виртуализации Mikrotik, чем ESXi. Не тестировалось с BGP, только маршрутизация и тестирование пропускной способности.
     
     
     
    chechito
    Guest
    #5
    0
    24.09.2019 14:55:00
    У меня были лучшие результаты с ESXi, чем с Proxmox, когда речь шла о живом клиентском трафике свыше 1 Гбит/с. Я не тестировал Hyper-V, но, похоже, оптимальная конфигурация определяет конечную производительность.
     
     
     
    chechito
    Guest
    #6
    0
    24.09.2019 15:25:00
    Я предлагаю самый простой и дешевый вариант для реализации CHR, который может подойти для некоторых внедрений: ЦП: Intel Core i5 8400 (6 ядер без HT) 2.8GHz базовая частота ОЗУ: 8GB DDR4 (разделить на 2 модуля, чтобы воспользоваться преимуществами двухканальной памяти) Материнская плата: материнская плата на чипсете Z390 Хранилище: 120GB SSD Сетевая карта: Dual SFP+ PCI Express Сетевое питание: блок питания 80+ Gold, Active PFC, ATX, 550 ватт Стандартный или монтажный в стойку ATX Корпус Line Interactive 2.5kVA Итого стоимость: 800-900 USD Один из вариантов для повышения производительности — замена на ЦП Core i5 9600K, тогда вы легко получите на 30% большую тактовую частоту, с добавлением затрат в 150 USD Другой вариант для повышения производительности — замена на ЦП Core i7 9700K, тогда вы тоже получите на 30% большую тактовую частоту, плюс два дополнительных ядра (всего 8 ядер) с добавлением затрат в 300 USD Таким образом, вы можете получить 8-ядерный CHR с базовой тактовой частотой 3.6GHz за примерно 1200 USD Конечно, хорошая идея — реализовать второй CHR для высокой доступности.
     
     
     
    Maggiore81
    Guest
    #7
    0
    11.11.2019 14:39:00
    Вы используете IP FASTTRACK, чтобы снизить нагрузку на ЦП? Мы используем Fasttrack и имеем 3 Гбит/с при нагрузке на ЦП около 10%.
     
     
     
    DUB
    Guest
    #8
    0
    20.12.2019 03:36:00
    Привет! Я тоже заинтересовался этим продуктом: «Первые на рынке с оптимизированным для сетей процессором Intel® Xeon® D-2100 на базе x86 Ускоряет обработку пакетов с помощью Intel® Data Plane Development Kit (DPDK) Ускоряет шифрование безопасности с помощью Intel® QuickAssist Technology (QAT)». Звучит так, будто он должен работать довольно хорошо, но меня немного беспокоит медленная частота процессора D-2100... Ты когда-нибудь получал информацию о том, как он работает? Я сегодня оставил несколько технических вопросов нашему представителю Dell, жду ответа… Спасибо, DUB.
     
     
     
    okinawajoe
    Guest
    #9
    0
    30.09.2020 06:59:00
    Том, я действительно ценю все твои советы и взаимодействие, касающиеся работы BGP на узлах CHR. Мы небольшая кабельная компания, обслуживающая довольно требовательную клиентскую базу, и в настоящее время достигаем пиковых значений от 30 до 36 Гбит/с в часы пик, постоянно работая на полную мощность на нашем общем объеме в 40 Гбит/с во время обновлений Call of Duty. На данный момент у нас есть один маршрут по умолчанию к нашему основному транзитному провайдеру, но мы движемся к нескольким транзитным провайдерам и необходимости иметь достаточную мощность для работы с двумя полными таблицами BGP. Учитывая эти требования к пропускной способности, не мог бы ты поделиться своими мыслями о том, как ты мог бы подойти к этому? После прочтения этой темы, я задумался о том, чтобы развести два физических хоста ESXi или Hyper-V, работающих параллельно, каждый из которых обслуживает 20 Гбит/с трафика. Ты бы представил CHR как отдельных пиров для вышестоящих транзитных провайдеров или применил бы какую-то форму балансировки нагрузки? При оценке других маршрутизаторов класса операторов, способных работать с двумя полными таблицами, высокие затраты заставили меня искать альтернативы, и так я и наткнулся на твою тему.
     
     
     
    TomjNorthIdaho
    Guest
    #10
    0
    01.10.2020 21:33:00
    Ух ты - у вас действительно хорошие, продвинутые вопросы. Нет единственно правильного ответа. Однако, если бы это было моё решение, я бы рассматривал что-то вроде этого: Один основной высокопроизводительный сервер VmWare ESXi (и, возможно, второй резервный сервер) Два или четыре процессора Xeon (много ядер и много кэша ЦП) 128 или 256 ГБ оперативной памяти Одна или две сетевые карты с высокой пропускной способностью (100 Гбит было бы лучше) Высокопроизводительный уровень 2 коммутатор (порты 100 Гбит были бы наилучшими) Я бы попробовал это на одном сервере VmWare ESXi: Два маршрутизатора BGP-Peering CHR Каждый маршрутизатор BGP имеет свой собственный интерфейс 10-100 Гбит - так что вы занимаетесь двумя портами для WAN к вашим маршрутизаторам BGP на интерфейсах WAN Третий маршрутизатор CHR или PfSense, который выполняет OSPF к моим двум маршрутизаторам BGP, эти два маршрутизатора BGP будут делать OSPF к вашему маршрутизатору OSPF, и трафик не будет проходить через внешний коммутатор * быстрее I/O, используя сетевые интерфейсы * Четвёртые (или более) распределительные маршрутизаторы на том же сервере VmWare ESXi (эти маршрутизаторы общаются с вашим маршрутизатором OSPF - не с серверами BGP) WAN на ваших распределительных маршрутах не проходят через внешний коммутатор * более быстрое сетевое I/O ** На данном этапе всё (исключая ваши локальные сети распределительного маршрутизатора) работает внутри одного сервера VmWare ESXi * Более высокая пропускная способность сети, так как вы не проходите через внешние сети/коммутаторы *** У вас всего четыре виртуальные машины на сервере VmWare ESXi (CHR#1-BGP, CHR#2-BGP, CHR-OSPF маршрутизатор и CHR-распределительный маршрутизатор) Примечание - всё, что общается с LAN вашего распределительного маршрутизатора, должно проходить через свои собственные коммутаторы *** WAN BGP и распределительные LAN не находятся на одном коммутаторе *** держите всё простым и быстрым Примечание: теоретически, если у вас достаточно быстрый сервер VmWare ESXi, виртуальные коммутаторы должны обгонять физические коммутаторы (поскольку виртуальный коммутатор - это программное обеспечение, а не физический, и единственное ограничение по пропускной способности виртуального коммутатора - это скорость ЦП). Мои мысли, Северный Айдахо, Том Джонс.
     
     
     
    Maggiore81
    Guest
    #11
    0
    08.11.2020 10:05:00
    У вас действительно интересные вопросы! Нет однозначного ответа. Но если бы это было мне… я бы рассматривал что-то вроде этого: один основной сервер VmWare ESXi (возможно, второй резервный сервер), два или четыре процессора Xeon (много ядер и много кэша ЦП), 128 ГБ или 256 ГБ оперативной памяти, одна или две сетевые карты с высокой пропускной способностью (100 Гбит было бы лучше), коммутатор второго уровня с высокой пропускной способностью (порты на 100 Гбит были бы идеальны). Вот мои мысли: Северный Айдахо, Том Джонс.

    Какова цель 128 ГБ памяти, если оборудованию нужно выполнять BGP и маршрутизацию? Это может работать и на 16 ГБ… или я что-то упускаю?
     
     
     
    TomjNorthIdaho
    Guest
    #12
    0
    09.11.2020 20:30:00
    Re: Какова цель 128 ГБ памяти, если устройство должно выполнять BGP и маршрутизацию? Мой ответ: Постройте это, и они придут. Если сэкономить на ОЗУ/ЦПУ/Сетевом Ввода-Выводе, это может вернуться, чтобы причинить неудобства. Допустим, позже вы захотите изменить маршрутизатор CHR на PfSense или добавить маршрутизатор PfSense, у вас будет достаточно оперативной памяти для этого. Допустим, вам нужен новый файрвол (например, PfSense), и вы также хотите установить дополнительные пакеты, такие как: bandwidthd, pfBlockerNG-devel, snort, squidguard, zabbix-agent ** и некоторые дополнительные онлайн-списки (черные списки спамеров, блокировка Китая, блокировка IP-адресов хакеров) и настроить их на автоматическое обновление.
     
     
     
    IPAsupport
    Guest
    #13
    0
    29.04.2021 21:29:00
    Я не уверен, решили ли вы это уже, знаю, что это старый пост, но я рекомендовал нескольким людям купить пару Dell R630 на eBay, примерно по $600-700 каждый, и добавить 40G карты или пару 10G и сделать LACP. У этого сервера 24 слота для оперативной памяти и 2 сокета для процессоров. Они работают отлично. Для LACP вам понадобится Proxmox, бесплатная версия VMware не позволит вам использовать LACP на своих виртуальных свитчах, если вы не купите лицензию, которая на сегодняшний день стоит около $1300.00 Также мы всегда рекомендуем добавить пару Dell S4048, чтобы построить то, что мы называем "архитектурой, ориентированной на свитчи". Мы перемещаем сердце сети от маршрутизаторов к свитчам, чтобы управлять связью между устройствами и сделать все сервисы доступными для любого устройства, которое мы хотим.
     
     
     
    cmurrayis
    Guest
    #14
    0
    07.06.2019 04:00:00
    @IPANetEngineer Мы хотим провести тестирование с CHR, запущенным как ВМ, но нам нужно больше 10 Гbps пропускной способности, что обычно не является проблемой. Однако мы достигаем 80% на наших CCR1072 с примерно 800,000 PPS. Мы планируем использовать Dell vep4600 в качестве аппаратной платформы с дополнительными 8 x 10 Гbps модулями. Поскольку это модели Xeon с сетевым ускорением, мы надеялись на потрясающие результаты. У вас есть рекомендации?
     
     
     
    Страницы: 1
    Читают тему
    +7 495 320-55-52
    info@mikrotik.moscow
    Электрозаводская, Бауманская
    Москва, ул. Бакунинская, 84с21
    Конфиденциальность Оферта
    © 2025 «Mikrotik.Moscow»
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры