Artykuł pochodzi z wydania: Maj 2021
Centralne zarządzanie siecią bezprzewodową w przedsiębiorstwie to konieczność, szczególnie jeśli wymagana jest spójna kontrola dostępu, realizowana za pośrednictwem wielu punktów dostępowych. Testujemy efektywne kosztowo rozwiązania firmy TP-Link.
Dostęp do zasobów sieciowych zarówno w domu, jak i małej firmie oraz korporacji zatrudniającej tysiące pracowników najczęściej realizowany jest z wykorzystaniem połączenia bezprzewodowego. O ile mamy do czynienia z relatywnie niewielką przestrzenią do pokrycia sygnałem Wi-Fi, jak chociażby mieszkanie, budynek jednorodzinny czy niewielkie biuro, zazwyczaj wystarczą jeden lub dwa punkty dostępowe. W takim przypadku konfiguracja sieci bezprzewodowej i jej utrzymanie w ryzach nie są zbyt wymagające. Sytuacja zmienia się jednak diametralnie, w momencie kiedy obsłużyć trzeba już setki, o ile nie tysiące użytkowników, a skromne biuro zmienia się w kampus wielopiętrowych budynków. W tym przypadku zaprojektowanie sprawnie działającej sieci, w tym jej bezprzewodowej części, przestaje być banalnym zadaniem, a liczba wymagań co do wydajności i bezpieczeństwa zastosowanych środków wymusza sięgnięcie po rozwiązania korporacyjne, oparte na scentralizowanym zarządzaniu całością. Poza produktami najbardziej renomowanych dostawców sprzętu sieciowego na rynku pojawiły się także zdecydowanie tańsze propozycje, jak chociażby popularne produkty rodziny Ubiquiti UniFi, które są obecnie chyba najpopularniejszą platformą bezprzewodową dla klientów sektora MSP. Około dwa lata temu również chiński TP-Link, znany szerzej z produktów dla użytkowników domowych, zaproponował własną linię rozwiązań sieciowych przeznaczonych dla odbiorcy biznesowego, zarządzanych z poziomu kontrolera sieci.
> TP-LINK OMADA
Omada to nazwa platformy do programowego zarządzania infrastrukturą sieciową (SDN) opartą na wybranych produktach biznesowych firmy TP-Link. W skład ekosystemu wchodzą przełączniki, punkty dostępowe i routery, zarządzalne centralnie z poziomu kontrolera SDN, który może mieć formę fizycznego urządzenia, oprogramowania instalowanego na wybranych systemach operacyjnych lub kontrolera dostępnego z poziomu chmury producenta. Ta ostatnia opcja nie miała jeszcze oficjalnej premiery i na razie pojawia się na stronie producenta jako zapowiedź produktu. Bynajmniej nie oznacza to jednak, że na chwilę obecną nie ma możliwości dostępu do zarządzania platformą Omada z poziomu chmury. Wystarczy zarejestrować lokalny kontroler SDN na koncie omada.tplinkcloud.com, aby uzyskać dostęp do konsoli zarządzania siecią z dowolnego miejsca na świecie za pośrednictwem przeglądarki internetowej lub dedykowanej aplikacji na urządzenia mobilne.
Serce platformy Omada – kontroler SDN – dostępny jest obecnie w dwóch odmianach sprzętowych – OC200 oraz OC300, a także jako Omada Software Controller dla systemów Windows oraz Linux. Nasz zestaw testowy początkowo miał się składać jedynie z pojedynczego punktu dostępowego Wi-Fi 6 – EAP660 HD, a więc pudełka zapewniającego największą wydajność w całej gamie (do 2402 Mb/s w paśmie 5 GHz oraz do 1148 Mb/s dla pasma 2,4 GHz), którego testy moglibyśmy przeprowadzić w trybie autonomicznym lub z wykorzystaniem Omada Software Controllera. Ostatecznie jednak w kartonie, który dotarł do redakcji, znaleźliśmy nieco bardziej rozbudowany zestaw składający się z kontrolera sprzętowego Omada OC200, przełącznika JetStream TL-SG3210XHP-M2 oraz punktu dostępowego EAP620 HD.
Nasz testowy kontroler sieci to niewielkie metalowe pudełko o rozmiarach 100 × 98 × 25 mm, które w zestawie nie ma nawet zasilacza. Domyślną metodą dostarczenia prądu jest standard PoE 802.3af/at, wspierany na jednym z dwóch wbudowanych portów sieciowych FastEthernet. Maksymalne zużycie energii elektrycznej określono na poziomie 7,5 W (PoE) lub 3,5 W (zasilanie przez port micro USB), a to głównie za sprawą pojedynczego układu Cortex-A53 wspomaganego 1 GB RAM-u. Pamięć masowa w przypadku OC200 to całe 4 GB eMMC. Storage można rozszerzyć za pośrednictwem pojedynczego portu USB 2.0 (backup). Nieco większy brat – OC300 – ma układ Cortex-A72, 2 GB RAM oraz 8 GB eMMC oraz port USB 3.0, a także regularny zasilacz. Jest także wyraźnie większy (294 × 180 × 44 mm). Najistotniejszy jest jednak soft hostowany na obu kontrolerach. Większość parametrów oprogramowania SDN jest identyczna bez względu na to, który kontroler sprzętowy lub software’owy wybierzemy. Każda opcja pozwala na zarządzanie urządzeniami w wielu lokalizacjach fizycznych, dostęp przez chmurę producenta czy przenoszenie ustawień lokalizacji pomiędzy kontrolerami. Również wartości maksymalne dla każdej z platform zostały zdefiniowane na tym samym poziomie, jak chociażby maksymalna liczba lokalizacji (100), maksymalna liczba SSID (16 na lokalizację), maksymalna liczba adresów MAC w każdej grupie filtrowania (500) czy chociażby maksymalna liczba użytkowników lokalnych (50000). Różnice dotyczą za to liczby zarządzanych urządzeń. W przypadku testowego kontrolera OC200 producent określa górną granicę na poziomie 100 urządzeń i 1000 klientów. Dla OC300 granica przesuwa się do poziomu odpowiednio 500 urządzeń i 15000 klientów. Wersja software’owa poradzi sobie wszędzie tam, gdzie kończą się możliwości kontrolerów sprzętowych (do 1500 urządzeń). Jak łatwo sobie można wyobrazić, zasoby obliczeniowe przypisanej maszyny wirtualnej czy serwera mogą znacznie wykraczać poza skalę możliwości dedykowanych kontrolerów sprzętowych. Producent deklaruje, że aby osiągnąć maksimum możliwości zarządzania, wystarczy procesor klasy Intel Core i3-8100, i5-6500 lub i7-4700 z przynajmniej dwoma rdzeniami i wielowątkowością, a także przynajmniej 6 GB RAM-u – to niewiele. Kontroler nie jest także objęty żadnym licencjonowaniem, co oznacza że jego wersja softwarowe’owa jest całkowicie darmowa, a w przypadku wariantów sprzętowych płacimy jedynie za sprzęt bez względu na liczbę zarządzanych urządzeń. Opłata licencyjna jest za to przewidziana dla wersji cloudowej, która ma się niedługo pojawić.
[…]
Marcin Jurczyk
Autor jest architektem w międzynarodowej firmie z branży IT. Zajmuje się infrastrukturą sieciowo-serwerową, wirtualizacją infrastruktury i pamięcią masową.