1. Статьи
Заметки пользователей
31.03.2014 08:30
PDF
67371
13

Такие разные проблемы

Чем крупнее сеть, тем более разношёрстнее оборудование там стоит, тем сильнее различается уровень компетенции обслуживающего персонала, тем больше проблем у них возникает.

Хочу представить вам подборку разноплановых аварий на сетях, доставивших немало часов увлекательной отладки.

По следам забытых RFC

Имеем вот такую сеть.

Такие разные проблемы

На доступе кольца коммутаторов младшей линейки, защищённые MSTP. Кольца агрегируются на вышестоящем коммутаторе, который напрямую подключен к BRAS'у. Кольца разорваны посередине, чтобы уравновесить нагрузку на разные порты агрегаторов.

Помимо базового доступа в Интернет предоставляется услуга IPTV.

Симптомы проблемы: Периодически наблюдается повышенная загрузка CPU сразу огромного количества коммутаторов по всему L2-домену, и в такие моменты они становятся недоступными для управления на несколько секунд. Сервисы при этом не страдают.

Анализ и решение

Раз сразу несколько коммутаторов страдают в одно время, надо начинать поиски с внешних факторов. Начинаем, как обычно, с проверки логов.

В них встречаются такие сообщения:

2013-09-16 20:46:37 The CPU is overloaded, and the tasks with top three CPU occupancy are frag_add(16%), SNPG(15%), FTS(13%). (CpuUsage=95%, Threshold=95%)

Frag_add отвечает за изучение MAC-адресов и заполнение ARP-таблицы, FTS - за отправку и получение пакетов, а SNPG - за обработку мультикаста.

Учитывая некую периодичность появления таких сообщений, предполагаем, что есть какое-то внешнее событие, которое запускает механизмы коммутатора. А обновление таблицы MAC'ов и ARP обычно происходит сразу после получения TC-пакета процессом STP. Это делается для того, чтобы сразу отреагировать на изменения топологии.

Не пришлось долго искать такие сообщения в логах:

2013-09-16 20:09:14 MSTP received BPDU with TC, MSTP process 0 instance 0, port name is GigabitEthernet0/0/1.

То же самое показывает и статистка полученных TC:

Такие разные проблемы

Этим объясняется процесс frag-add. Частично этим объясняется и активность FTS (получение и отправка пакетов) - первое время каждый принятый кадр нужно обработать на CPU и загнать MAC-адреса в таблицу. Но это событие не из ряда вон выходящее, и если каждое отключение порта приводило бы к повышению CPU, жить такому вендору было бы сложно.

Есть ещё процесс SNPG, отвечающий за мультикаст. Что не так с ним?

Дело в том, что в конфигурации присутствует команда igmp-snooping send-query enable. Она отвечает за отправку IGMP General Query во все свои порты при получении STP TC. Сделано это для того, чтобы быстро перестроить таблицу мультикастовой коммутации, когда изменилась топология. Таким образом, коммутатор быстро узнаёт, где появились клиенты, которые прежде получали трафик по другому пути. По умолчанию GQ отправляется на адрес 192.168.0.1. Естественно, он уходит и в тот порт, который выполнял роль Router Port, потому что при перестроении кольца он мог поменяться, и там могли появиться клиенты. В общем, не хилая такая работа для коммутатора младшей линейки - обработать весь поток Report'ов такого большого L2-домена.

Далее опытным путём подтвердили предположение: после удаления этой команды загрузка CPU оставалась в пределах нормы во время перестроения кольца. Кроме того, обратили внимание, что об обрыве в одном кольце уведомляются коммутаторы во всех других (рассылаются TC BPDU). Это следствие того, что на весь немаленький L2-домен натянут один MSTP процесс. По этой причине страдало так много коммутаторов. Вот казалось бы и распутали клубок - удалить команду и желательно разнести разные кольца по разным MSTP Instance или даже процессам, чтобы не было такого острого взаимовлияния. Но вот оказия: как только удалили эту команду, после изменения топологии прекращает работать мультикаст. А через несколько минут восстанавливается сам по себе. Повторяемость 100%. Найти ответ в лоб не удаётся. Что происходит, совершенно непонятно.

Остаётся только дампить трафик.

Вот результаты:

Такие разные проблемы

Такие разные проблемы

То есть дёрнули порт и непонятно почему, коммутатор отправил три пакета IGMP General Query с адресом отправителя 0.0.0.0. Что это такое, откуда, зачем? На вопрос отвечает Максим Поташёв RFC4541.

The 0.0.0.0 address represents a special case where the switch is proxying IGMP Queries for faster network convergence, but is not itself the Querier. The switch does not use its own IP address (even if it has one), because this would cause the Queries to be seen as coming from a newly elected Querier. The 0.0.0.0 address is used to indicate that the Query packets are NOT from a multicast router.

Иными словами, это специальный Query, который позволяет ускорить сходимость. Адрес 0.0.0.0 означает, что запрос не от мультикастового маршрутизатора, и не нужно производить перевыборы Querier. И тут картина начинает складываться. BRAS просто складывал с себя обязанности Querier после получения 0.0.0.0 (он же меньше текущего). Заблокировали отправку IGMP Querier с агрегирующего коммутатора на BRAS - никаких проблем больше нет. Потрачено много времени на отладку, а всё потому, что кто-то не придерживается RFC. Кстати, вышла в свет новая статья из цикла Сети Для Самых Маленьких. Она посвящена кокрастыке мультикасту и поможет вам разобраться в деталях.

Loop, да Loop around

Список продолжает проблема с широковещательными штормами. Пожалуй, это настоящий бич сетей MetroEthernet. Огромная часть запросов первого уровня открывается именно по штормам: петли физические, петли логические, петли в MPLS L2VPN. И в то время, как все стремятся уменьшить радиус широковещательного домена до локальной сети, некоторые расширяют его до масштабов города.

Имеем вот такую сеть

Такие разные проблемы

Есть один центральный узел-контроллер. К сети MetroEthernet подключаются станции, которые хотят взаимодействовать с контроллером, причём не просто взаимодействовать, а именно так, словно они подключены непосредственно друг к другу безо всяких маршрутизаторов.

Для этого на сети MetroEthernet поднята услуга MPLS L2VPN. Все станции являются членами одного широковещательного домена. В кольцах доступа существует чистый IP/Ethernet, а внутри агрегации уже MPLS.

Кольцо защищено RRPP - проприетарным протоколом Huawei для кольцевых топологий. Пакеты RRPP - это BPDU, чтобы они проходили через сеть MetroEthernet, создан специальный VSI исключительно для RRPP. То есть пакеты RRPP Hello прозрачно проходят через маршрутизатор благодаря L2VPN.

Внутри сети между маршрутизаторами Full-Mesh с помощью MPLS TE туннелей для передачи данных L2VPN. В качестве IGP выступает ISIS (хочу напомнить, что он активируется на интерфейсах, в отличие от OSPFv2).

Такие разные проблемы

В какой-то момент на одном из магистральных интерфейсов сети MetroEthernet начал расти счётчик CRC-ошибок. Естественно, это сразу сказалось на сервисах. Интерфейс выключили, ошибки кончились, но кольцо MetroEthernet оказалось разомкнутым, что как бы страшно.

Но, разумеется, всё продолжает работать, туннель между двумя маршрутизаторами перестроился на резервный путь по кольцу.

RRPP тоже работает, потому что Hello-пакеты проходят успешно.

То есть сейчас, если два устройства в одном кольце захотят пообщаться друг с другом, они пойдут по длинному пути.

Такие разные проблемы

Но долго без резервирования жить нельзя - сеть не Украина - отделить кусочек нельзя. Инженеры решили провести тест линии. Для этого они выбрали время наименьшей нагрузки, взяли с собой запасные SFP и платы и поехали на узел.

Чтобы не проводить операции на живой сети, решили изменить настройки IP на интерфейсе - взять адреса из какого-нибудь неиспользуемого в сети диапазона - они же ведь в этом случае ни с кем не пересекутся.

Поменяли IP, включили интерфейсы, запустили пинг. Наблюдают ошибки на портах, потери в пинге - проблема на лицо. Наблюдают какое-то время ещё перед тем, как менять линию, не обращая пока внимания, что терминал начал подтормаживать. Через несколько минут звонок от центра мониторинга - "недоступна большая часть станций".

Глядь, а там загрузка интерфейсов под 100%, CPU тоже перегружен - как есть шторм.

Разорвали проблемный линк, подождали минут 5 - ничего не изменилось - шторм прогрессирует. Начали рвать все имеющиеся кольца - помогло.

Два вопроса: почему случился шторм, ведь предприняли, казалось бы, меры и почему отключение проблемной линии не помогло?

Легче оказалось ответить на второй вопрос. В силу особенностей дизайна сети широковещательный шторм распространился очень быстро. И к моменту, когда инженеры узнали о шторме, он уже вовсю царствовал на коммутаторах других колец. Процессоры были заняты обработкой всяческих ARP'ов и других широковещательных пакетов и начали отбрасывать пакеты RRPP Hello. RRPP Master, не получая Hello, разблокировали свои резервные порты, считая, что кольцо разорвано. А на самом-то деле кольцо было целым и продолжало передавать трафик.

В итоге даже после разрыва линка между R1 и R2 петли продолжали плодить шторм и в других кольцах.

Но что же пошло не так с самого начала?

Несложно догадаться, что корень проблемы именно в CRC-ошибках. Результаты работы чёрного ящика показали, что в буфере чипа линейной платы произошёл сбой, который, грубо говоря, инвертировал бит, записанный в него, тем самым повреждая данные. Ирония заключается в том, что мутировали именно пакеты RRPP Hello, другие данные были затронуты в меньшей степени. RRPP Master не понимал, чего от него хотят, не обрабатывал Hello и снимал блокировку со своего резервного порта, смыкая тем самым петлю, в то время, как все другие данные ходили вполне нормально, и сразу после этого начали размножаться.

"Но мы же... поменяли IP-адрес - не должно было ничего подняться", "таблица маршрутизации не знает" - говорили они, "MPLS TE-туннели должны идти по нормальному пути" - говорили они.

Развязка

Концами TE-туннелей являются адреса Loopback-интерфейсов. RSVP строит LSP по кратчайшему пути. Да, пока линк был в дауне, путь лежал через всё кольцо MetroEthernet, но потом его подняли. И... на интерфейсе не был выключен ISIS, который не посмотрел, что IP-адреса какие-то левые, а просто изучил, что через них доступны Loopback'и других маршрутизаторов, туннели легли через этот путь, данные начали корёжиться.

Штормы это всё-таки один из самых сложных типов проблем - устранить сравнительно легко и сделать это надо очень быстро, а разбираться потом, когда уже всё кончилось, где там, что коротнуло.

Если стандарты пишут, значит это кому-нибудь нужно

Интереснейшая проблема, которую, слава Лейбницу, решал не я. Копий было сломано много, война была затяжной.

Очень простая сеть

Такие разные проблемы

Всё работает, базовые станции успешно общаются с RNC, трафик ходит. Далее происходит плановое обновление ПО на маршрутизаторах, и после него на RNC вываливается авария о том, что потеряна синхронизация с БС - сервисы разваливаются. Откат - всё работает. Ещё один тест для подтверждения - ситуация повторяется.

Важно понять, как происходит синхронизация. Существует не так уж много известных механизмов для этого: NTP, TOP, SynchroEthernet, 1588v2 (он же PTP).

Заказчик с полной уверенностью утверждает, что для синхронизации используется NTP. Хоть мы такого и не встречали никогда, но ладно - радиооборудование другого вендора, мало ли что он там накрутил. Ответственный инженер и целая команда разработчиков, проглядела все глаза, пытаясь найти хоть какие-то различия в NTP-пакетах до и после обновления. R&D поклялись Китайской Великой Стеной, что не вносили никаких изменений в алгоритм обработки NTP-сообщений. Сравнивали до байта данные в пакете.

И тут закралось первое подозрение, а что если не по NTP? Заказчик продолжал спорить, вендор радиооборудования молчал, как рыбой об лёд, потому что с ним не было контракта на техподдержку.

Мы же практически с завязанными глазами должны были угадать, что идёт не так в многомегабитном потоке данных. Пытались найти следы других механизмов синхронизации - ноль по вдоль.

В итоге чёрный ящик крутился, крутился и через несколько дней выплюнул - VSS Monitoring (кажется, так Wireshark определял эти пакеты). Пакеты этого типа ходили между RNC и BS. Мы до сих пор не уверены в том, что именно в них ходила синхра (возможно, внимательный читатель прояснит эту ситуацию), но именно в них обнаружили кардинальное отличие между различными версиями.

Это оказались пакеты сравнительно маленького размера - несколько байтов полезной нагрузки. Но, как известно, Ethernet не приемлет радикального минимализма - ему подавай как минимум 64 байта. Понятное дело, что даже заголовки MPLS+L2VPN+Ethernet+VLAN (4+4+18+4=32 байта) не всегда добьют до нужного, поэтому есть специальный механизм - Padding. Он дополняет размер Ethernet-кадра до минимального - до 64 байтов.

И как обычно, дьявол в мелочах. Заполняться, согласно стандарту, должно нулями, мол проще и легче определить, где кончаются полезные данные, где начинается padding. Но этого стандарта почему-то не принято строго придерживаться. Часто оказывается эффективнее заполнить тем, что уже есть в буфере, а отделение зёрен от плевел переложить на вышестоящий протокол.

Так вот оказалось, что в старой версии всё работало согласно стандарту, а вот в новой было решено оптимизировать механизм Padding, и кадр дополнялся не нулями, а куском из этого же самого кадра. Учитывая, что это не исключительное нарушение стандарта, подавляющее большинство протоколов с этим как-то справляется, а кто-то не справился, скорее всего, приняв всё заполнение за полезную нагрузку. Тут остаётся только гадать.

В кратчайшие сроки был выпущен временный патч, возвращающий назад режим работы - проблема решилась. Это пример очень сложного запроса и показатель хардкорности инженеров техподдержки. Даже со связанными руками, закрытыми глазами, кляпом во рту и работающим рядом отбойным молотком эти ребята способны решать сложнейшие запросы.

Как выстрелить себе в ногу и ничего не понять

Проблемы первого уровня называются также критическими, но довольно таки часто на деле они являются скорее истерическими. Это ситуации когда заказчик хочет открыть запрос первого уровня, но в действительности ничего страшного не случилось, либо случилось, но сервисы уже восстановлены.

Вот вам пьеса в трёх действиях:

Саботажник

У инженерного состава паника - уже несколько раз они наблюдали падение линка между ядром сети и агрегацией. Пять минут лежит, потом само поднимается. Падает сервис всего города. Во внутренней системе заявок идут ожесточённые дискуссии на эту тему, считают, сколько пользователей страдает, смотрят логи со всех узлов, статистику. Я в этом участия не принимаю и могу с чувством, с толком, с расстановкой изучать логи.

Кстати, надо тут заметить, что в Hi-End маршрутизаторах Huawei два хранилища для логов - просто буфер, который выводится по команде display logbuffer, и файл подробнейших логов на карте памяти (cfcard2:/log/log.log).

В последний сохраняются все события и все действия инженеров на коммутаторе. Вот его я и начал смотреть. Догадаетесь, что я там увидел?

Такие разные проблемы

Торопыга

А вот случай совсем недавно. Инженер жалуется, что после команды undo mpls на интерфейсе упали все LSP, LDP-сессии, туннели на устройстве - восстановилось после ребута. Полный предвкушения, что будет что-то интересное, я полез в логи. Печенька не заставила себя долго ждать:

Такие разные проблемы
 

System-view - режим конфигурации 
sysname - команда для смены имени устройства.

Мазохист

Проблема: не работает команда по добавлению статического Router port в IGMP - после настройки клиенты перестают получать мультикастовый трафик.

На канальном уровне для мультикаста есть много плюшек для управления. Одна из них - статическая настройка порта в сторону маршрутизатора.

Вообще Router port изучается коммутатором благодаря IGMP-Snooping после получения IGMP General Query от маршрутизатора. Когда на коммутатор приходят Report от клиентов, он отправляет их именно в Router port. Бывают ситуации, когда маршрутизатор по какой-то причине не посылает General Query, но посылать Report'ы на него по-прежнему нужно. Либо вы хотите чётко определить, что отправлять Report нужно именно в этот интерфейс.

Делается это в режиме настройки интерфейса командой igmp-snooping static-router-port vlan X.

Есть дополнительная команда для выключения изучения того, где находится маршрутизатор вообще: undo igmp-snooping router-learning. В этом случае он просто начинает игнорировать Query с этого порта.

Вместе эти две настройки позволяют жёстко зафиксировать порт, куда следует отправлять Report, и соответственно откуда получать трафик.

Как же можно здесь навредить себе? А всё довольно просто - достаточно включить IGMP-Snooping Proxy.

Ведь на оборудовании Хуавэй у него три базовых правила работы:

  1. Если коммутатор получил Query от вышестоящего маршрутизатора, он отправляет ему ответный Report, не опрашивая клиентов - просто сообщает, какие группы ему нужны.
  2. Если коммутатор получил самый первый Report для данной группы, он отправляет его наверх. Все другие Report он учитывает, но не отправляет
  3. Если коммутатор получил самый последний Leave (от последнего клиента группы), он отправляет его наверх. Все другие Leave учитывает, но не отправляет.

И что же это получается, если настроить все команды разом? Первый клиент подключается, посылает Report. Это первый Report для группы, поэтому коммутатор отправляет его в Router port. Трафик начинает литься и клиент его получает.

Далее маршрутизатор тщетно отправляет GQ на в интерфейс, но коммутатор их отбрасывает, потому что настроено undo igmp-snooping router-learning.

Сам по себе клиент, как правило, не отправляет Report периодически.

По прошествии трёх минут маршрутизатор прекращает свои потуги, не получая Report, и удаляет интерфейс из списка OIL. Все следующие клиенты уже были не первыми и их Report'ы погибали на коммутаторе.

Что объединяет все описанные ситуации? Человеческий фактор, расхлябанное отношение, невнимательность.

Решение сетевых проблем часто сравнивают с работой врача. Пациент жалуется на боль, а мы с помощью наводящих вопросов и анализов находим болезнь. Разница лишь в том, что цена нашей ошибки - деньги и репутация, а не человеческие жизни. У нас есть право на ошибку, но не нужно им злоупотреблять.

Пожалуй, из ряда выбивается только проблема с паддингом - всё-таки разработчики действовали из лучших побуждений - они хотели оптимизировать работу и в общем-то не их вина, что стандартом не достаточно чётко это прописано. И не вина другого вендора, что он не предусмотрел такую возможность и не адаптировал к ней свои механизмы.

Ещё более глубокая проблема - широковещательные штормы. Понятны причины, по которым на L2 существует принцип широковещания, можно понять и причины, по которым нет поля TTL в кадрах Ethernet, понятно даже то, почему изначально разработчики не задумывались о таких проблемах - в конце концов, эта технология задумывалась для LAN, а не для сети провайдера или уж тем более MAN. Однако эта недальновидность дорого теперь обходится операторам. Но это уже совсем другая история.

13 комментариев
Оставлять комментарии могут только авторизованные пользователи
Robot_NagNews
Robot_NagNews

Материал:

Чем крупнее сеть, тем более разношёрстное оборудование там стоит, тем сильнее различается уровень компетенции обслуживающего персонала, тем больше проблем у них возникает.

 

Полный текст

s.lobanov
s.lobanov

"undo mpls" становится уже классикой жанра для оборудования Huawei. Я лично знаю 2ух человек, которые это сделали.

 

При том ещё прикол в том, что на S-свитчах из интерфейса оно убивает mpls на всей коробке, а на NE/CX это нормальная команда в режиме конфигурирования интерфейса

 

Вообще это очень раздражает в huawei, что на разном оборудовании команды немного(!) отличаются.

 

P.S. Статья написана в стиле "смотрите какие наши заказчики криворукие", очень некрасиво. Ваши заказчики же не пишут статьи на тему "как саппорт huawei тянет время", "как huawei скрывает тех.харакеристики на этапе pre-sale" и т.п., а могли бы!

eucariot
eucariot

"undo mpls" становится уже классикой жанра для оборудования Huawei. Я лично знаю 2ух человек, которые это сделали.

 

При том ещё прикол в том, что на S-свитчах из интерфейса оно убивает mpls на всей коробке, а на NE/CX это нормальная команда в режиме конфигурирования интерфейса

 

Вообще это очень раздражает в huawei, что на разном оборудовании команды немного(!) отличаются.

 

P.S. Статья написана в стиле "смотрите какие наши заказчики криворукие", очень некрасиво. Ваши заказчики же не пишут статьи на тему "как саппорт huawei тянет время", "как huawei скрывает тех.харакеристики на этапе pre-sale" и т.п., а могли бы!

 

 

Нисколько не хотел выставить кого-то в дурном свете. Просто забавные и интересные ситуации из практики. Не умаляю и не отрицаю также, что и ТП Хуавэй имеет не мало проблем. Просто о задержках в решении запросов и хитростях продажников не очень интересно читать.

 

А что касается undo mpls, то меня в первый раз такое поведение очень удивило. Поменять тип работы интерфейса нельзя, пока не почистишь всю настройку на нём, а вот удалить весь мплс из конфигурации, это запросто.

Картуччо
Картуччо

Ваши заказчики же не пишут статьи на тему "как саппорт huawei тянет время", "как huawei скрывает тех.харакеристики на этапе pre-sale" и т.п., а могли бы!

Как хуавей заявляет - "а мы вам такие цены дали потому что рассчитывали в итоге продать гораздо больше".

Asco
Asco

"undo mpls" становится уже классикой жанра для оборудования Huawei. Я лично знаю 2ух человек, которые это сделали.

 

При том ещё прикол в том, что на S-свитчах из интерфейса оно убивает mpls на всей коробке, а на NE/CX это нормальная команда в режиме конфигурирования интерфейса

А что, у вас все инженеры с 15 уровнем привелегий ходят?

А как же конструкции:

command-privilege level 15 view shell mpls
command-privilege level rearrange
super password level 15 cipher dFgFgf

Вообще это очень раздражает в huawei, что на разном оборудовании команды немного(!) отличаются.

Ага, а на CX что бы поставить локаль времени +4 нужно вводить -8 (=

sio
sio

"undo mpls" становится уже классикой жанра для оборудования Huawei. Я лично знаю 2ух человек, которые это сделали.

 

При том ещё прикол в том, что на S-свитчах из интерфейса оно убивает mpls на всей коробке, а на NE/CX это нормальная команда в режиме конфигурирования интерфейса

Да ладно, что на 93-м, что на CX/ME mpls на интерфейсе одинаково конфигурится. Если вспомнить 85-е, то да, но это и не Хуавей вовсе.

А вот если в "undo mpls l2vc" последнюю "c" недобить, то прикольно получается.

С другой стороны, у других вендоров подобных фишек тоже хватает.

kisa
kisa

попытался представить ситуацию cо static router port на примере s2326.

Что-то в моем понимании описанной ситуации несколько несостыковок.

 

1)

Есть дополнительная команда для выключения изучения того, где находится маршрутизатор вообще: undo igmp-snooping router-learning. В этом случае он просто начинает игнорировать Query с этого порта.

_с этого порта_

С какого порта?

Вроде как эта команда никакого отношения к какому-то конкретному порту

не имеет, а выполняется для всего влана.

 

2)

Далее маршрутизатор тщетно отправляет GQ на в интерфейс, но коммутатор их отбрасывает, потому что настроено undo igmp-snooping router-learning.

Почему отбрасываются GQ? Ведь человек настроил статические порты с помощью

igmp-snooping static-router-port vlan X. Они же должны принимать GQ?

 

3) Тогда по логике и без IGMP-Snooping Proxy должны были возникнуть проблемы.

Почему она в ситуации описана как обязательное условие для проблемы?

eucariot
eucariot

С какого порта?

Вроде как эта команда никакого отношения к какому-то конкретному порту

не имеет, а выполняется для всего влана.

Прошу прощения - вы совершенно правы. Без привязки к порту.

 

Почему отбрасываются GQ? Ведь человек настроил статические порты с помощью

igmp-snooping static-router-port vlan X. Они же должны принимать GQ?

 

Нет, в документации чётко описано, что при отключении изучения маршрутизатора перестают приниматься GQ.

 

"Configuration Impact

After dynamic router port learning is disabled, no interface will listen to IGMP Query messages, and static router ports must be configured."

 

3) Тогда по логике и без IGMP-Snooping Proxy должны были возникнуть проблемы.

Почему она в ситуации описана как обязательное условие для проблемы?

 

В принципе, конечно, да. Но просто так загонять себя в ловушку вряд ли кто-то будет. Поэтому либо IGMP Querier, либо IGMP Snooping Proxy таки надо включать.

kisa
kisa

С какого порта?

Вроде как эта команда никакого отношения к какому-то конкретному порту

не имеет, а выполняется для всего влана.

Прошу прощения - вы совершенно правы. Без привязки к порту.

 

Почему отбрасываются GQ? Ведь человек настроил статические порты с помощью

igmp-snooping static-router-port vlan X. Они же должны принимать GQ?

 

Нет, в документации чётко описано, что при отключении изучения маршрутизатора перестают приниматься GQ.

 

"Configuration Impact

After dynamic router port learning is disabled, no interface will listen to IGMP Query messages, and static router ports must be configured."

 

 

Вообще, здесь написано, что ни один интерфейс не будет слушать IGMP Query messages, и должны быть настроены статические порты.

Что логично, т.к. для того, чтобы определять router port нужно именно _слушать_ эти сообщения.

А вот для того чтобы их передавать в клиентские порты их слушать не нужно, их нужно форвардить. А про запрет форвардинга

в этой

 

 

3) Тогда по логике и без IGMP-Snooping Proxy должны были возникнуть проблемы.

Почему она в ситуации описана как обязательное условие для проблемы?

 

В принципе, конечно, да. Но просто так загонять себя в ловушку вряд ли кто-то будет. Поэтому либо IGMP Querier, либо IGMP Snooping Proxy таки надо включать.

kisa
kisa

С какого порта?

Вроде как эта команда никакого отношения к какому-то конкретному порту

не имеет, а выполняется для всего влана.

Прошу прощения - вы совершенно правы. Без привязки к порту.

 

Почему отбрасываются GQ? Ведь человек настроил статические порты с помощью

igmp-snooping static-router-port vlan X. Они же должны принимать GQ?

 

Нет, в документации чётко описано, что при отключении изучения маршрутизатора перестают приниматься GQ.

 

"Configuration Impact

After dynamic router port learning is disabled, no interface will listen to IGMP Query messages, and static router ports must be configured."

 

 

Вообще, здесь написано, что ни один интерфейс не будет слушать IGMP Query messages, и должны быть настроены статические порты.

Что логично, т.к. для того, чтобы определять router port нужно именно _слушать_ эти сообщения.

А раз раутер порты уже определены, то чего GQ слушать. И для того, чтобы их передавать в клиентские порты их слушать не нужно, их нужно форвардить. А про запрет форвардинга

в этой фразе ничего нет.

 

Я почему так привязался к этой теме.

У меня запущен стенд для малтикаста, тестируют разные коммутаторы на роль

доступа для сети с малтикастом. В качестве варианта от huawei

настроены s2326 и s2352.

 

Конфигурация почти как описанная в статье.

Т.е. используется статический выбор малтикаст раутер портов.

Так вот никаких проблем с полученим GQ, на портах я не испытываю.

Скриншот с обменом пакетами igmp прилагаю. Это клиент, подключенный к s2326, который получает

малтикаст через один гигабитных портов, определенных как static router port.

 

GQ посылает querier, настроенный на одном из коммутаторов (10.105.0.4) в условном ядре,

к которому подключен s2326.

 

 

Вот выдержка из конфига.

vlan 7
igmp-snooping enable
igmp-snooping version 3
igmp-snooping prompt-leave
undo igmp-snooping router-learning
multicast-vlan enable
multicast-vlan user-vlan 101 to 124
multicast-vlan send-query prune-source-port


interface GigabitEthernet0/0/1
port link-type trunk
undo port trunk allow-pass vlan 1
port trunk allow-pass vlan 4 to 5 7 101 to 124
traffic-policy igmp inbound
igmp-snooping static-router-port vlan 7
#
interface GigabitEthernet0/0/2
port link-type trunk
undo port trunk allow-pass vlan 1
port trunk allow-pass vlan 4 to 5 7 101 to 124
traffic-policy igmp inbound
igmp-snooping static-router-port vlan 7

 

 

 

3) Тогда по логике и без IGMP-Snooping Proxy должны были возникнуть проблемы.

Почему она в ситуации описана как обязательное условие для проблемы?

 

В принципе, конечно, да. Но просто так загонять себя в ловушку вряд ли кто-то будет. Поэтому либо IGMP Querier, либо IGMP Snooping Proxy таки надо включать.

 

P.S. есть проблемы c малтикастом на s2350, может подскажете в личку, как достучаться до поддержи huawei маленькому оператору.

post-4779-043971000 1396901402_thumb.png