Информация
Настройка
Новости
Контакты
Новинка
Распродажа
Оплата
Доставка
Загрузки
  • Прошивки
    • WinBox
    • RouterOS
    • Мобильные приложения MikroTik
    • Архив
  • Changelogs
  • RouterOS
  • Мобильные приложения MikroTik
  • Архив
Форум
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
    info@mikrotik.moscow
    +7 495 320-55-52
    Заказать звонок
    Mikrotik.moscow
    Каталог
    • Акции
      Акции
    • Маршрутизаторы
      Маршрутизаторы
    • Коммутаторы
      Коммутаторы
    • Радиомосты и уличные точки доступа
      Радиомосты и уличные точки доступа
    • Wi-Fi для дома и офиса
      Wi-Fi для дома и офиса
    • LTE/5G
      LTE/5G
    • Powerline адаптеры
      Powerline адаптеры
    • IoT устройства
      IoT устройства
    • Оборудование 60 ГГц
      Оборудование 60 ГГц
    • Материнские платы RouterBOARD
      Материнские платы RouterBOARD
    • Корпуса
      Корпуса
    • Интерфейсы
      Интерфейсы
    • SFP/QSFP трансиверы
      SFP/QSFP трансиверы
    • Аксессуары
      Аксессуары
    • Антенны
      Антенны
    • Архив
      Архив
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Скачать WinBox Скачать Прошивки Форум > RouterOS Форум > SwOS Форум > Железо
    Mikrotik.moscow
    Каталог
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Mikrotik.moscow
    Телефоны
    +7 495 320-55-52
    Заказать звонок
    0
    0
    0
    Mikrotik.moscow
    • +7 495 320-55-52
      • Назад
      • Телефоны
      • +7 495 320-55-52
      • Заказать звонок
    • info@mikrotik.moscow
    • г. Москва, ул. Бакунинская, 84
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной


    • Кабинет
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    RouterOS
    Контроль потока — стоит ли его использовать?

    Контроль потока — стоит ли его использовать?

    Форумы: RouterOS, Аппаратное обеспечение, SwOS, Обратная связь, Объявления, Сторонние инструменты
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Контроль потока — стоит ли его использовать?, RouterOS
     
    jmay
    Guest
    #1
    0
    09.12.2015 23:47:00
    Один из моих роутеров выдавал ошибку «fcs error on link». К этому порту был подключён Airfiber, и я нашёл совет включить flow control, чтобы решить проблему, ведь на Airfiber flow control был включён. Это действительно устранило ошибку, но потом я задумался — стоит ли включать flow control везде. Я почитывал плюсы и минусы и теперь запутался. Использовать его или нет? У меня много беспроводных связей повсюду, и интересно, может ли это принести какую-то пользу.
     
     
     
    WirelessRudy
    Guest
    #2
    0
    06.05.2016 23:07:00
    Так никто толком и не может это включить? Я бы предположил, что сейчас в любом трафике пакеты VoIP тоже есть (если вы интернет-провайдер). У нас проблемы с пропускной способностью TCP, и мы ищем решение. Мы думали, что уже нашли его, ведь во всей нашей сети (полный MT, сотни устройств) по умолчанию это «выключено». Минуту назад казалось, что это могло бы решить проблему, но у нас же есть клиенты, использующие VoIP… так где же мы сейчас?
     
     
     
    WirelessRudy
    Guest
    #3
    0
    08.05.2016 14:07:00
    Не могу не согласиться… Я выяснил, что одним из главных факторов, обеспечивающих «быструю» работу браузера, является очень быстрый DNS-кэш и то, чтобы все пользователи им действительно пользовались.

    Согласен. Но как этого лучше добиться? Давным-давно я настроил так, чтобы все клиенты указывали на наш шлюз, который работал как DNS-кэш и перенаправлял запросы на серверы моего провайдера того времени. Потом мы заметили, что серверы OpenDNS работают намного лучше, чем DNS провайдера (Telefonica), и сменили адреса прямо на шлюзе. Потом однажды возникла проблема — http://www.google.com/es перестал открываться. Это решилось отключением MT-кэша (тогда на RB1100AHx2). На форуме было много обсуждений по этой теме.

    С тех пор мы стали указывать каждому CPE и другим роутерам напрямую серверы OpenDNS, чтобы запросы обходили шлюз. В прошлом году мы снова попробовали схему «dst-nat re-route to itself» с DNS-кэшем на шлюзе, но уже через неделю у клиентов снова начали возникать проблемы с DNS. Многие сайты переставали открываться, поэтому мы снова отключили DNS-кэш на MikroTik и направили пересылку на сервера Google. Специальная тестовая программа показала, что для нас они работают быстрее, чем OpenDNS или любой другой DNS-сервер.

    Текущая конфигурация такая:  
    add action=dst-nat chain=dstnat comment="re-route dns requests to Google DNS" dst-port=53 protocol=udp to-addresses=8.8.8.8 to-ports=53  
    add action=dst-nat chain=dstnat comment="re-route dns requests to Google DNS" dst-port=53 protocol=tcp to-addresses=8.8.8.8 to-ports=53

    Может, лучше вообще настроить, чтобы CPE напрямую смотрели на сервера Google, но для этого нужно менять настройки на всех устройствах.
     
     
     
    IntrusDave
    Guest
    #4
    0
    07.05.2016 04:58:00
    Больше пропускной способности? Без полного понимания вашей сети, каналов, нагрузки, трафика и прочего — ответить на это невозможно. Если вы продали больше пропускной способности, чем есть на самом деле, выбора особо нет. Можно попробовать управление трафиком, ограничение скорости и так далее. Flow Control не поможет, если физические каналы уже загружены по максимуму. Он просто останавливает трафик без разбора, так что это плохой вариант для VoIP. Вам нужно проанализировать трафик, понять, куда он расходуется, и затем решить, покупать ли больше пропускной способности или внедрять QoS.
     
     
     
    WirelessRudy
    Guest
    #5
    0
    07.05.2016 09:39:00
    Проблема точно не в полосе пропускания. У нас есть симметричная линия 300/300 Мбит/с, и комбинированный трафик клиентов редко приближается к 200 Мбит/с. На моих компьютерах мы иногда проводим тесты, и при одновременном запуске нескольких загрузок, желательно на 2-3 ПК, получаем до максимума — около 295 Мбит/с на скачивание. Скорость загрузки по www.speedtest.net обычно близка к 300 Мбит/с.

    Если есть узкие места, то они в сети. Но, как и у любого другого провайдера, у нас есть оверсубскрипшн, даже на уровне P2MP-сети. Не знаю, есть ли операторы, которые держат возможные максимальные нагрузки клиентов в пределах, которые может выдержать точка доступа (AP) (например, 100 Мбит-соединение AP может обслужить только 10 клиентов по 10 Мбит? Это плохо и очень редкая модель бизнеса). Каждый оператор продаёт больше трафика, чем может реально обеспечить, если бы все клиенты одновременно начали пользоваться своей максимальной скоростью. Это касается всех сетевых инфраструктур — интернета, электросетей, национальных дорог или водоснабжения.

    Я знаю, что у национального провайдера ADSL около 10 миллионов клиентов, и им всем продают по 10 Мбит. Что будет, если они все одновременно начнут использовать эту скорость? Ни одна сеть такого не выдержит. Поэтому мы все работаем с оверсубскрипшеном на разных уровнях. Нам всем приходится делать обоснованные предположения о том, где первоочередно ликвидировать узкие места, чтобы постоянно улучшать общую пропускную способность.

    Так что узкие места есть в любой сети. И, соответственно, смешанные по пропускной способности каналы — тоже часть сети. Как уже сказал, у нас есть 300/300 Мбит, приходящих через Cisco-роутер, который подключён гигабитом к нашему CCR. Оттуда по гигабитному Ethernet идут несколько радиоканалов для обратной транспортировки (бэкахолла). Некоторые из этих каналов работают на 80 МГц в режиме ac, другие — только 20 МГц в режиме n. На другой стороне есть радиоканалы с подключением по 100 Мбит к следующему радиоустройству (AP или новый канал), а есть и гигабитные соединения к следующим маршрутизаторам.

    В целом я бы сказал, что пакеты клиентов, входящие с 300 Мбит симметричного канала, «проходят» через разные участки: гигабитные линии, 100-мегабитные, быстрое «ac» радио на 80 МГц, среднебыстрое «n» радио на 20 МГц к точке доступа, которая обычно соединяется с клиентами по «n» (некоторые ещё с одним радиоканалом). CPE у клиентов подключены к устройствам клиентов по 100 Мбит.

    Так как скачивание — это большая часть трафика, стоит смотреть откуда идёт ingress трафик:

    1. Первая ступень — 300 Мбит «труба» от провайдера к Cisco роутеру.
    2. Вторая — гигабитный кабель к CCR. Предполагаю, здесь нет проблем с контролем потока?
    3. Третья — новый гигабитный кабель к «ac» радио с каналом 80 МГц (мы можем «дать» по нему где-то 250–300 Мбит TCP. В общем это два канала с дуплексом на базе OSPF).
    4. Четвёртая — сам радиоканал с пропускной способностью 250–300 Мбит.
    5. Пятая — другое радио, соединённое по гигабиту с ещё одним CCR.
    6. Шестая — этот CCR распределяет трафик на 4 новых бэкахола, все радио подключены по гигабиту к этому CCR.
    6а. Этот же CCR через свитч обеспечивает питание 3 AP, которые обслуживают около 75 клиентов. Все соединения — гигабитные, но на радиоканалах скорость заметно ниже. В среднем скорость соединения — около 80 Мбит.
    7. Новые бэкахолы к удалённым локациям. Некоторые с 40 МГц «n» каналами на скорости 270 Мбит, другие — с 130 Мбит на 20 МГц.
    8. И так далее — больше каналов, больше AP.

    Некоторые клиенты в нашей сети доступны только после того, как пакет прошёл через 5 беспроводных линов (в том числе AP — CPE) и по пути «увидел» минимум 15 роутеров Mikrotik, прежде чем попасть к Wi-Fi-роутеру или ПК клиента.

    Маленькое количество клиентов использует VoIP. Сейчас 70 клиентов подключены через PPPoE, в течение месяца доля должна достичь 100%. Сервер PPPoE в нашем шлюзе создаёт отдельные очереди для каждого пользователя в зависимости от его тарифа. Максимальная скорость — 50 Мбит на скачивание, большинство — 20 Мбит, 40% клиентов — только по 10 Мбит.

    Какой бы вы выбрали стратегию управления потоком данных в таких условиях?
     
     
     
    pukkita
    Guest
    #6
    0
    07.05.2016 13:37:00
    По моему опыту и, ИМХО, использование контроля потока — это как отключение автоопределения скорости, то есть «заплатка», чтобы «решить» (читай, облегчить) настоящую проблему. Вообще не должно быть необходимости включать контроль потока. Если он облегчает проблему, лучше исправьте саму проблему.

    Два типичных случая, когда люди прибегают к этому:

    Backpressure. Если это backpressure, обновите соответствующее сетевое оборудование или перепроектируйте эту часть сети.

    Ошибки FCS. AirFibers и определённое оборудование UBNT более «профессионального» уровня известны тем, что вызывают ошибки FCS. Проще говоря, мощность, излучаемая антенной, возвращается обратно в кабель/порт эфирной линии. Попробуйте снизить мощность передачи, особенно если монтаж выполнен неидеально из-за близлежащих препятствий, и обязательно уменьшите её до безопасного минимального уровня, оставляя достаточно SNR; меньше мощности — всегда лучше.

    Используйте качественные «броневые» кабели и разъёмы RJ45, заменяйте на проверенные, меняйте POE-блоки, избегайте источников электромагнитных помех (электродвигатели переменного тока, радиостанции FM и т. п.), заменяйте саму единицу.

    В итоге: решайте проблему, а не симптом. Если есть ошибки, волшебства, чтобы их сделать невидимыми, не существует — нужно устранить источник помех.
     
     
     
    WirelessRudy
    Guest
    #7
    0
    07.05.2016 18:18:00
    @pukkita: У нас нет проблем с ошибками. Иногда бывает ошибка fcs, но обычно это связано с плохой кабельной разводкой, и недавно мы выяснили, что наши монтажники привязали кабель ftp к «коровьей проволоке», по которой идут тысячи вольт (низкий ток), которые индуцируются в наш сетевой кабель! Но для меня новшество — это радиочастотная энергия, которая может проникать в разъемы и кабели Ethernet. Такое правда может быть? Думаю, да. …

    Мы по максимуму используем радиостанции в металлических экранированных корпусах и даже экранируем антенны, чтобы защититься от нежелательных радиоволн (из ненужных направлений). Для всех своих точек доступа и радиоканалов бэкхола используем кабель ftp и сейчас в процессе обновления заземлений, где только возможно. (Это довольно сложно, учитывая, что даже почва у нас летом очень сухая, и иногда у домов нет нормального заземления.) Сейчас мы также подключаем короткий заземляющий провод прямо от радиостанции к ближайшему устройству, плюс заземление башни, которое само по себе имеет свои заземления.

    Снижение мощности — задача на будущее, потому что до недавнего времени у нас везде стояли стандартные настройки мощности. В попытке уменьшить общий шум и, соответственно, помехи, это наш последний проект. (У нас больше 50 работающих радиостанций AP в радиусе 12 км, и примерно по 20 в сети конкурентов, так что каждый канал используется много раз везде.)

    Но тем не менее, у нас продолжается много жалоб от людей, которые показывают, что www.speedtest.net выдает им примерно вдвое меньшую скорость, чем мы утверждаем, что им обеспечиваем. При этом тесты пропускной способности TCP из клиентского оборудования (CPE) к нашему шлюзу всегда показывают полную скорость, назначенную в очереди клиента.

    За последние полгода, пока мы обновляли каналы бэкхола на новые NetMetals от MT с лучшими (Jirious!) антеннами, и где возможно, использовали гигабитный Ethernet, гигабитные коммутаторы и роутеры, мы наблюдаем рост среднего трафика, реально видим улучшения как в задержках, так и в пропускной способности по тестам MT, а одновременно получаем всё больше жалоб на медленный интернет…

    Поэтому сейчас мы ищем решения и причины, почему TCP на стороне клиента часто работает хуже, чем скорость, с которой мы можем отправить данные на его оборудование. Думаем, может, поможет анализ и управление трафиком? Но мнения по этому поводу сильно разнятся… так что пока не знаю.
     
     
     
    n21roadie
    Guest
    #8
    0
    07.05.2016 18:50:00
    Очень интересная тема! У нас смесь из WiFi-роутеров на 100 Мбит, точек доступа 100 Мбит и гигабитных, коммутаторов на 100 Мбит и 1 Гбит, а также PTP с гигабитной скоростью… Управление потоком однозначно имеет смысл, если только вы не используете гигабитное оборудование на всём пути от WiFi-роутера клиента. В настоящий момент мы тестируем управление потоком в режиме «Auto» на участке сети с миксом оборудования от 100 Мбит до 1 Гбит http://wiki.mikrotik.com/wiki/Manual:Interface/Ethernet … «auto» — то же, что и «on», только при включённой автонастройке (auto-negotiation=yes) статус управления потоком определяется с учетом того, что рекламирует другой конец.

    > Также используем кастомный тип очереди — pfifo, размер очереди = 10 пакетов для PPPoE сервера.

    Восприятие высокой скорости сети очень важно, независимо от того, на какой пакет подписан клиент, поэтому мы применяем кратковременные всплески трафика. Большинство клиентов вообще не проверяют скорость, пока не заметят замедление соединения, и мы стараемся сделать так, чтобы у них не было причин жаловаться!
     
     
     
    pukkita
    Guest
    #9
    0
    08.05.2016 09:44:00
    @WirelessRudy: Да, заземление в Испании или в любой другой стране с очень жарким климатом может быть настоящей головоломкой… Лучше вообще не доверять тому, что уже установлено (если только вы не измеряли и не убедились, что всё нормально в сухой, жаркий летний день), и поставить собственное заземление. Всё необходимое можно взять у поставщика электроэнергии: специальные соли для проводимости и заземляющие стержни или пластины, которые лучше всего подходят для вашего типа грунта: http://www.dielectroindustrial.es/system/pdfs/164/original/Aplicaciones%20Tecnológicas%20Ca­tálogo%20Puesta%20a%20tierra%202011.pdf

    Что касается speedtest, у вас есть свои собственные серверы? Большинство серверов установлены другими (W)ISP, поэтому замеры на них дадут довольно размытые результаты, ведь, как вы сами сказали, большинство из них работает с перегрузкой. Вы уверены, что проблема с задержкой обусловлена именно обратным давлением, а не проблемами с TCP-соединением или фрагментацией? Вы используете простые очереди на PPPoE AC для ограничения скорости? Полностью согласен… Я заметил, что одним из главных факторов, обеспечивающих ощущение «живого» и быстрого интернет-серфинга, является очень быстрый DNS-кэш и чтобы все ваши пользователи его действительно применяли.
     
     
     
    pukkita
    Guest
    #10
    0
    09.05.2016 09:53:00
    Спасибо за ссылку, очень интересно! Ты специально искал что-то для меня на испанском или сам испанец? Я нет, хотя живу здесь, в регионе Аликанте, уже 16 лет… Мои языки — голландский, английский, испанский, немецкий… в таком порядке… но читать документ на испанском для меня не проблема. Главная цель была — упростить местный подбор компонентов, я знал, что ты находишься в Аликанте. Да, я испанец.

    Что касается твоей сети, указывать на возможные улучшения — это только часть работы при настройке производственной сети… дальше идет сама реализация улучшений, замеры, тестирование и анализ результатов для дальнейших улучшений или выявления узких мест и «слабых звеньев в цепи»… нередко при этом проявляются скрытые ошибки или проблемы. Беспроводные сети в производстве имеют некую «органическую» составляющую, обычно их нужно внимательно мониторить длительное время и постепенно вводить изменения по одному, чтобы можно было четко оценить и измерить разницу до и после и провести полноценный аудит; иногда исправление одного узкого места выявляет другое — выше или ниже в цепочке, что меняет всю ситуацию. Так что знать и указывать возможные улучшения — это лишь половина дела… другая половина (по значимости, а не по времени) — это их непосредственная реализация.

    Про DNS-кэш я имел в виду локальный рекурсивный резолвер DNS-кэша. Службы Google могут быстро меняться, поэтому TTL нужно особо внимательно отслеживать при кэшировании их записей. Разница между использованием DNS гугла или DNS провайдера и локальным быстрым рекурсивным кэшем может измеряться в несколько порядков; именно это все пользователи обычно и используют с момента начала работы с сетью:  
     
    (Cache DNS POPx = RouterOS DNS, использующий локальный рекурсивный DNS-кэш)  

    DNS-запросы обрабатываются локальным кэшем в 8 раз быстрее, чем при использовании внешнего DNS. Это значит, что экономится около 1,75 секунды на все запросы, и, что важнее — оптимизируется трафик, который является одним из самых критичных для плавного и быстрого пользовательского опыта в сети, если не самым важным. Перенаправление — обычно самый простой способ заставить всех использовать кэш, но оно может не сработать для всех клиентов, в зависимости от того, как они резолвят DNS; обычно небольшая часть клиентов требует обхода по IP, так как их резолвер может жаловаться или отказываться работать при перенаправлении.
     
     
     
    ZeroByte
    Guest
    #11
    0
    09.05.2016 16:00:00
    Здесь идёт отличная дискуссия. Хотелось бы добавить одну деталь: если вы несколько раз переключаетесь между скоростями 100 Мбит/с и 1 Гбит/с по пути, это может вызвать проблемы, если оборудование не настроено должным образом. Допустим, роутер может передавать данные по гигабитному интерфейсу через коммутатор к какому-то устройству, но следующее устройство поддерживает только 100-мегабитный Ethernet. Представим такую схему: (R1) —гиг—> [switch] —фаcт—> {bridge} —фаcт—> [switch] —гиг—> (R2). R1 и R2 видят это как гигабитное соединение. Даже если вы ограничиваете очередь на 100 Мбит/с, могут возникать проблемы, потому что трафик всё равно проходит по линии с гигабитной скоростью, и в короткие промежутки времени вы можете превысить пропускную способность 100-мегабитных линий… А если {bridge} при этом испытывает перегрузку, помехи или имеет пониженные скорости передачи и приёма, ситуация ещё усугубится. В таком случае лучше использовать 100-мегабитные подключения от роутеров к коммутаторам, чтобы роутеры не могли «закидывать» пакеты в коммутаторы быстрее, чем те успевают обработать 100-мегабитные линейки. По моим наблюдениям, эту всю проблему называют «bufferbloat» (но могу ошибаться).
     
     
     
    WirelessRudy
    Guest
    #12
    0
    09.05.2016 22:50:00
    Цитата
    Здесь идёт отличная дискуссия.
    Так что продолжайте в том же духе!

    > > Хочу добавить одну мелочь: если в маршруте несколько раз меняется скорость с 100 Мбит/с на 1 Гбит/с и обратно, это может вызвать проблемы, если оборудование не умеет с этим нормально работать. Представим, роутер может передавать трафик через гигабитный интерфейс к какому-то устройству через свитч, но следующее устройство поддерживает только 100 Мбит/с.

    Представим такую схему:  
    (R1) —gige—> [switch] -----faste—> {bridge} --faste—> [switch] —gige–> (R2)

    R1 и R2 считают, что это гигабитное соединение. Даже если ограничить очередь трафика на 100 Мбит, всё равно могут возникнуть проблемы, потому что трафик по кабелю идёт со скоростью гигабита, и в короткие промежутки времени вы можете превысить пропускную способность 100-мегабитного устройства… а если {bridge} ещё и перегружен, испытывает помехи или сниженные скорости передачи/приёма — ситуация станет ещё хуже.

    В таком случае лучше использовать 100-мегабитные соединения от роутеров к свитчам, чтобы роутеры не “заваливали” свитчи пакетами быстрее, чем те могут их обработать на 100-Мбит канале.

    Получается, если смотреть с точки зрения шлюза, как только внутри сети “проскакивает” гигабит, а дальше идёт 100 Мбит — лучше уже не возвращаться к гигабиту ниже по “трубопроводу”?

    А как быть с такой схемой:  
    (R1) —gige—> [router/radio] -----Wifi (скорость 200 Мбит) —> {router/radio} --gige—> [router] —gige–> [router/radio] ---->(Wifi (скорость 100 Мбит) —> [Router/radio] —> gige —> R2)

    Вопрос 1: Насколько по своей природе отличаются устройства, настроенные как роутеры, от свитчей, настроенных как бриджи (или выполняющих функции свитча) с точки зрения этой ситуации?

    Вопрос 2: Если маршрут пакета состоит из гигабитных, беспроводных и в конце 100-мегабитных звеньев — как это влияет на ситуацию сейчас?

    Вопрос 3: В такой сложной смешанной топологии, какую пользу (если есть) может дать использование “flow control”? (Вижу как сторонников использования этого, так и противоположные советы на этом форуме и за его пределами, так что для меня это пока загадка.)
     
     
     
    WirelessRudy
    Guest
    #13
    0
    09.05.2016 23:07:00
    Цитата
    Что касается вашей сети, указание на возможные улучшения — это лишь одна часть настройки работающей сети… дальше идут непосредственное внедрение улучшений, измерения, тестирование и анализ результатов для дальнейшего совершенствования или выявления узких мест и «слабых звеньев цепи»… не редкость в процессе обнаружить скрытые проблемы или недостатки.
    А при обновлении сети, чтобы отвечать растущему спросу клиентов и не отставать от конкурентов, мы можем и будем предлагать пользователям более высокие скорости. Раньше сеть всегда работала нормально с выделенными 4Mb для клиентов, которые время от времени ими пользовались (кроме обычных «паразитов», качающих через P2P), а теперь люди приносят назад свои смарт-телевизоры, чтобы начать смотреть видео по запросу, ведь провайдер говорит, что скорость 15Mb, так почему бы не «съесть» её… Так что да, все недостатки вскроются…  

    > > Беспроводные сети в эксплуатации имеют своего рода «органический» компонент, обычно требуется внимательный мониторинг в течение длительного времени и постепенное вводение изменений по одному, чтобы можно было определить и замерить разницу до и после, чтобы провести тщательный аудит; порой устранение одного узкого места выявляет другое — ниже или выше по цепочке, меняя всю ситуацию. Согласен. Живая система, живая.  

    > > Но да, устранил одну проблему — появилась новая… Что касается DNS кеша, я имел в виду развертывание рекурсивного DNS кеша локально. Сервисы Google могут быстро меняться, поэтому время жизни записи (TTL) — важный момент при кешировании их записей. Разница между использованием DNS Google или провайдера и локальным быстрым рекурсивным кешем может быть в несколько порядков; именно это и используют все клиенты: DNS-запросы разрешаются локальным кешем в 8 раз быстрее, чем при обращении к внешнему DNS. Это значит, что уходит примерно на 1750 мс меньше на каждый запрос, и что важнее — оптимизируется трафик, а он является одним из самых критичных для плавного и отзывчивого пользовательского опыта в сети, если не самым важным. Перенаправление обычно — самый простой способ заставить всех пользоваться кешем, но оно не всегда работает для всех клиентов, зависит от того, как они разрешают DNS, у небольшой части будет сбой или отказ работать при редиректе. Ну что ж, снова включил перенаправление на шлюзе. Посмотрим, сколько ещё времени кеш DNS нам прослужит.  

    В связи с этим: как насчёт разместить такой же локальный кеш DNS на некоторых узлах дальше по нашей сети? На одном из крупных узлов, который объединяет несколько магистралей к Точкам Доступа, у нас есть запасные rb1000, 1100AH, 2011 и т.п., настроенные на OSPF и VPLS/MPLS маршрутизацию и резервирование. Могут ли они взять на себя эту дополнительную задачу? Улучшит ли это разрешение запросов? Измеримо? (Эти кеши должны будут направлять запросы на главный роутер, ну а перенаправление об этом позаботится…)
     
     
     
    Страницы: 1
    Читают тему
    +7 495 320-55-52
    info@mikrotik.moscow
    Электрозаводская, Бауманская
    Москва, ул. Бакунинская, 84с21
    Конфиденциальность Оферта
    © 2025 «Mikrotik.Moscow»
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры