Информация
Настройка
Новости
Контакты
Новинка
Распродажа
Оплата
Доставка
Загрузки
  • Прошивки
    • WinBox
    • RouterOS
    • Мобильные приложения MikroTik
    • Архив
  • Changelogs
  • RouterOS
  • Мобильные приложения MikroTik
  • Архив
Форум
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
    info@mikrotik.moscow
    +7 495 320-55-52
    Заказать звонок
    Mikrotik.moscow
    Каталог
    • Акции
      Акции
    • Маршрутизаторы
      Маршрутизаторы
    • Коммутаторы
      Коммутаторы
    • Радиомосты и уличные точки доступа
      Радиомосты и уличные точки доступа
    • Wi-Fi для дома и офиса
      Wi-Fi для дома и офиса
    • LTE/5G
      LTE/5G
    • Powerline адаптеры
      Powerline адаптеры
    • IoT устройства
      IoT устройства
    • Оборудование 60 ГГц
      Оборудование 60 ГГц
    • Материнские платы RouterBOARD
      Материнские платы RouterBOARD
    • Корпуса
      Корпуса
    • Интерфейсы
      Интерфейсы
    • SFP/QSFP трансиверы
      SFP/QSFP трансиверы
    • Аксессуары
      Аксессуары
    • Антенны
      Антенны
    • Архив
      Архив
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Скачать WinBox Скачать Прошивки Форум > RouterOS Форум > SwOS Форум > Железо
    Mikrotik.moscow
    Каталог
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Mikrotik.moscow
    Телефоны
    +7 495 320-55-52
    Заказать звонок
    0
    0
    0
    Mikrotik.moscow
    • +7 495 320-55-52
      • Назад
      • Телефоны
      • +7 495 320-55-52
      • Заказать звонок
    • info@mikrotik.moscow
    • г. Москва, ул. Бакунинская, 84
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной


    • Кабинет
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    RouterOS
    Проблема с скоростью агрегации каналов LACP на Synology NAS

    Проблема с скоростью агрегации каналов LACP на Synology NAS

    Форумы: RouterOS, Аппаратное обеспечение, SwOS, Обратная связь, Объявления, Сторонние инструменты
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Проблема с скоростью агрегации каналов LACP на Synology NAS, RouterOS
     
    BartoszP
    Guest
    #1
    0
    04.10.2014 14:19:00
    Пытаюсь ускорить передачу данных между VMWare и Synology NAS RS3614XS, но безуспешно. Моя конфигурация: сервер Fujitsu-Siemens с VMWare 5.1, два сетевых адаптера Broadcom Corporation Broadcom NetXtreme II BCM5709 1000Base-T, виртуальный распределённый коммутатор с настроенным LACP 802.3ad на оба uplink-порта этого дуального NIC, VDS настроен на 10 Гбит с jumbo frames 9000. Broadcom не используется для управления во время теста — только для передачи данных. Виртуализированная Windows 7 Prof на FSC используется как источник передачи. VMXNET3 NIC настроен на 10 Гбит с jumbo frames 9000. Производственный VMWare 5.5 подключён к порту 6, с вторым виртуализированным Win7 Prof для тестирования, VMXNET3 NIC также на 10 Гбит и jumbo frames 9000. В роли свитча для агрегации в режиме 802.3ad используется RB1100AHx2 с прошивкой v6.18 — без правил фаервола. Порты 2 и 3 объединены в LACP bond для RS3614 — интерфейс LACP_RS3614, порты 4 и 5 объединены в LACP для VMWare — интерфейс LACP_172_FSC. Порты 7, 8, 9, 10 подчинены порту 6, порт 6 объединён с обоими бондами в мост. Порт 13 используется для управления — на другом IP-подсети. Все порты настроены на MTU 9100 jumbo frames, максимальный размер кадра 9200. Synology RS3614XS с четырьмя NIC, два NIC объединены в 802.3ad, бонд настроен с jumbo frames 9000, третий используется для управления на другой IP-подсети. Передача данных с Win7 внутри FSC на Synology полностью загружает LACP бонд до 1 Гбит, и данные идут только по одному Ethernet-линку, как и ожидалось. Та же ситуация при передаче с производственного VMWare на Synology. Проблема возникает, когда начинаю передачу с обоих источников одновременно. Передача разбивается между двумя портами бонда, но общая скорость не превышает 1 Гбит. Есть идеи, в чём может быть причина такого поведения? Я понимаю, что проблема вряд ли связана с RB1100AHx2, но у меня нет запасного свитча с бондингом, чтобы исключить MicroTik как виновника. Неизменяемый MTU 1598 на мосту тоже, похоже, не проблема, так как он используется для передачи с производственного VMWare с загрузкой в 1 Гбит.

    /interface bridge add l2mtu=1598 name=BR172  
    /interface ethernet set [find default-name=ether2] l2mtu=9200 mtu=9100 name=ETH2_LACP_RS3614
    set [find default-name=ether3] l2mtu=9200 mtu=9100 name=ETH3_LACP_RS3614
    set [find default-name=ether4] l2mtu=9200 mtu=9100 name=ETH4_LACP_FSC
    set [find default-name=ether5] l2mtu=9200 mtu=9100 name=ETH5_LACP_FSC
    set [find default-name=ether6] name=ETH6_172
    set [find default-name=ether13] name=ETH13_192
    set [find default-name=ether7] master-port=ETH6_172
    set [find default-name=ether8] master-port=ETH6_172
    set [find default-name=ether9] master-port=ETH6_172
    set [find default-name=ether10] master-port=ETH6_172
    /interface bonding add mode=802.3ad mtu=9100 name=LACP_172_FSC slaves=ETH4_LACP_FSC,ETH5_LACP_FSC transmit-hash-policy=layer-2-and-3  
    add mode=802.3ad mtu=9100 name=LACP_RS3614 slaves=ETH2_LACP_RS3614,ETH3_LACP_RS3614 transmit-hash-policy=layer-2-and-3  
    /interface bridge port add bridge=BR172 interface=LACP_RS3614  
    add bridge=BR172 interface=ETH6_172  
    add bridge=BR172 interface=LACP_172_FSC  
    /ip address add address=172.16.99.249/24 comment=“default configuration” interface=BR172 network=172.16.99.0  
    add address=192.168.1.249/24 interface=ETH13_192 network=192.168.1.0
     
     
     
    bobob
    Guest
    #2
    0
    25.10.2018 18:31:00
    У меня был LACP с тремя портами между NAS и роутером Mikrotik. С какого-то обновления, которое было уже давно, точно не вспомню когда, скорость передачи упала. Только что я отключил LACP и заменил его обычным 1Gb соединением — и всё работает нормально. Поскольку у меня нет много других подключений к NAS, в LACP-агрегации особо нет нужды — это просто было ради эксперимента. И она не работает. По крайней мере, больше не работает.
     
     
     
    dynek
    Guest
    #3
    0
    05.01.2016 20:13:00
    Кто-нибудь знает, может ли AR8327 в RB1100AHx2 работать с 802.3ad на аппаратном уровне? И как правильно настроить бондирование с VLAN поверх этого? Спрашиваю, потому что пробовал на RB450G, пока не получилось, но надеюсь, что на RB1100AHx2 получится. Ещё спрашиваю, потому что вижу, что люди говорят про бридж, и не понимаю, зачем он нужен. Спасибо!
     
     
     
    ZeroByte
    Guest
    #4
    0
    05.01.2016 21:40:00
    Даже если бы это было возможно, это не помогло бы, если только вы не используете это как простой аппаратный переключатель на уровне 2, при условии, что с другой стороны тоже пара объединённых каналов. Потому что для уровня 3 (маршрутизации) трафик должен подниматься до процессора, который соединён с коммутатором Atheros всего одной линией на 1 Гбит/с.
     
     
     
    dynek
    Guest
    #5
    0
    05.01.2016 22:14:00
    Это определённо логично. Спасибо. Ты уже настроил bonding на Mikrotik? Просто интересно, как мне лучше настроить VLANы поверх bonding (всё ещё не понимаю, почему выше упоминался мост).
     
     
     
    ZeroByte
    Guest
    #6
    0
    12.01.2016 20:14:00
    Никогда лично не настраивал это на Mikrotik, нет. Однако, изучая документацию, я примерно понял, чего ожидать. Думаю, что bonding-интерфейс будет интерфейсом на базе процессора (то есть работать на скорость провода для передачи на уровне 2 он не будет). Это значит, что пропускная способность bonding-интерфейса, скорее всего, ограничена 1 Гбит/с, если не использовать один интерфейс с switch1 и другой с switch2 (как, кажется, упоминалось ранее в обсуждении).

    Чтобы роутер работал в VLAN через бандл, нужно применить vlan-интерфейсы к bonding-интерфейсу и назначить IP-адреса на vlan-интерфейсы.

    Если вы пытаетесь их объединить (bridge), то сделать это можно по-разному: (поскольку эти интерфейсы основаны на процессоре, преимущества аппаратного переключения тут отсутствуют, так что использовать bridge-интерфейсы можно без проблем). Если все участники мостика должны видеть все VLANы этого моста, просто добавьте vlan-интерфейсы на bridge-интерфейс и подключите разные физические Ethernet-порты (или bonding-интерфейсы в вашем случае). Создавать vlan-интерфейсы нужно только если хотите, чтобы роутер участвовал в VLAN на IP-уровне.

    Любые VLAN-теги, использующиеся устройствами на других концах ваших физических или bonding-интерфейсов, могут быть любыми. Если хотите сделать так, чтобы нетегированный интерфейс связывался с тегированным, нужно создать vlan-интерфейс на физическом или bonding-интерфейсе, который должен использовать теги, а потом для каждого VLAN, который хотите передавать, создавать отдельный bridge. Подключайте нетегированный интерфейс к нужному vlan и соответствующему vlan-интерфейсу.

    Если роутер должен участвовать в этом VLAN на IP-уровне, назначьте IP-адрес на bridge-интерфейс.

    Учтите, что один нетегированный интерфейс по сути может использовать только один VLAN — и это логично, правда?

    Также помните, что bonding-интерфейс ограничен максимальной пропускной способностью одного физического интерфейса в каждой сессии. Например, в режиме 802.3ad (LACP) все пакеты от хоста А к хосту В будут передаваться по одному физическому интерфейсу, так что скорость A→B не может превысить пропускную способность одной физической линии.
     
     
     
    dynek
    Guest
    #7
    0
    12.01.2016 20:22:00
    Спасибо за очень подробное объяснение. Жду свой RB1100Ahx2 и как получу — буду экспериментировать с объединением каналов.
     
     
     
    StubArea51
    Guest
    #8
    0
    12.01.2016 22:27:00
    Чтобы добавить ещё один штрих к обсуждению: когда мы проводили тесты пропускной способности между CCR1072 и нашими ESXi VMWARE хостами, мы обнаружили, что реализация LACP в VM Ware работает очень плохо с хешированием. У нас было несколько отдельных TCP потоков с разными IP-адресами источника и назначения, но все они в итоге шли по одной и той же линии. Я также сталкивался с такой же проблемой при подключении ESXi LACP к коммутаторам Cisco Nexus 7010... Алгоритмы хеширования для балансировки нагрузки на стороне VM Ware, похоже, плохо работают начиная с версии ESXi 6.x. В нашем блоге есть кое-какие заметки про LACP между MikroTIk и VM Ware: http://www.stubarea51.net/2015/10/09/mikrotik-ccr1072-1g-8s-review-part-3-80-gbps-throughput-testing/
     
     
     
    Страницы: 1
    Читают тему
    +7 495 320-55-52
    info@mikrotik.moscow
    Электрозаводская, Бауманская
    Москва, ул. Бакунинская, 84с21
    Конфиденциальность Оферта
    © 2025 «Mikrotik.Moscow»
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры