Cały raport w formacie pdf

Transkrypt

Cały raport w formacie pdf
ISSN 1509-3603 NR1/2010
Śledzenie zagrożeń w sieci
Uaktywnienie subdomen
Ethernetowa rewolucja
Streaming wideo w Polska.pl
3
W YDARZENIA
3
Polski rejestr przoduje
4
6
8
NASK laureatem „Teraz Polska”
10
Akademia NASK
Nowości w ofercie usługowej
Jak bezpiecznie surfować
13
13
MICHAŁ CHRZANOWSKI
DYREKTOR NASK
USŁUGI
Ethernetowa rewolucja
NASK liderem innowacji
NASK zmienia się tak, jak zmianie ulega świat Internetu i
telekomunikacji. Od 1 października 2010 roku NASK stał się instytutem
16
16
badawczym. Zmiany ustawowe otwierają przed nami nowe szanse.
BE Z P IE C Z E ŃS T W O
Staramy się sprostać tym wyzwaniom. Rozszerzamy naszą działalność
naukową, prowadzimy wiele projektów badawczych. Z powodzeniem
Śledzenie zagrożeń w sieci
działamy na rynku komercyjnym, świadcząc szeroki wachlarz usług z
dziedziny telekomunikacji. najlepszych w Europie, a w domenie .pl zarejestrowanych jest już prawie
18
18
21
Polski rejestr domen prowadzony przez NASK jest jednym z
DOMENY
2 mln adresów. NASK jest liderem w dziedzinie bezpieczeństwa
Internetu. W 2010 roku zostaliśmy uhonorowani godłem „Teraz Polska”
Uaktywnienie subdomen
Wirtualizacja w Dziale Domen
w prestiżowej kategorii „Innowacje”. Uznanie jury uzyskał system
ARAKIS-GOV skutecznie chroniący zasoby wielu najważniejszych polskich instytucji. Warto podkreślić, iż to rozwiązanie przygotowywane
było przy udziale specjalistów między innymi z zespołu CERT Polska
24
24
INTERNE T
uznawanego za jeden z najlepszych na świecie, a działającego w ramach
NASK. Streaming wideo w Polska.pl
Nie zapominamy, że bezpieczeństwo Internetu to także dbałość
o bezpieczne korzystanie z sieci przez najmłodszych. Od przeszło pięciu
lat realizujemy program Komisji Europejskiej „Safer Internet”, prowadzimy hotline zbierający informacje o nielegalnych treściach w sieci. Naszą
27
27
BADANIA
nową inicjatywą jest Akademia NASK. Oferuje ona kursy i szkolenia,
między innymi z dziedziny bezpieczeństwa Internetu, informatyki i telekomunikacji, a także bezpiecznego korzystania z Internetu i edukacji medial-
Wspomaganie zarządzania
kryzysowego
nej. Prawie 20 lat temu podłączyliśmy Polskę do sieci. Dziś chcemy być
liderem w kreowaniu innowacyjnych rozwiązań technologicznych.
Michał Chrzanowski
2
B I U L E T Y N NASK
W Y DA R Z ENI A
Wysokie tempo wzrostu
Polski rejestr przoduje
Podsumowując pierwszą poło-
Pragniemy podkreślić, że dynamika
Drugim
wę roku 2010, z satysfakcją
przyrostu liczby nazw domeny .pl jest
nikiem wpływającym na przyrost
możemy stwierdzić, że charak-
znacznie wyższa niż w pozostałych
nazw domeny .pl w DNS jest liczba
teryzowała się ona bardzo dyna-
krajach Unii Europejskiej. W ujęciu
odnowień, która w roku 2010 zaczę-
micznym rozwojem polskiego
rocznym wynosi 28 procent, pod-
ła wykazywać tendencję wzrostową.
rynku domen internetowych.
czas gdy w zajmującej drugie miej-
Pod koniec drugiego kwartału 2010 r.
Co
przoduje
sce Francji wartość ta kształtuje
wskaźnik
wśród 10 największych europe-
się na poziomie 21 proc. Kolejne
59 proc.
jskich rejestrów krajowych pod
europejskie rejestry notują znacznie
względem dynamiki przyrostu
niższe przyrosty, holenderski – 14
Pierwsze półrocze 2010 r. było także
liczby nazw domen w DNS.
proc., a belgijski i włoski po 13 proc.
pomyślne, jeśli chodzi o zaintere-
więcej,
Polska
bardzo
ważnym
odnowień
czyn-
osiągnął
Ten niezwykle wysoki przyrost
sowanie programem partnerskim
Pierwsze półrocze 2010 roku zostało
zawdzięczamy przede wszystkim
NASK. Podpisaliśmy 19 nowych
zamknięte imponującą liczbą 1 834
dużej liczbie nowych rejestracji. W
umów, w tym aż 8 z podmiota-
726 aktywnych nazw domeny .pl.
ciągu pierwszej połowy roku zostało
mi zagranicznymi. Świadczy to o
Oznacza to przyrost netto aktyw-
zarejestrowanych powyżej 500 000
rosnącej popularności nazw domeny
nych nazw domeny utrzymywanych
nowych nazw domeny .pl. Daje to
.pl również poza granicami Polski.
w DNS o ponad 200 000 w porów-
średnią liczbę 2886 rejestracji na
naniu do końca roku 2009.
dzień.
/ks/
.se
.be
.dk
.es
.fr
.pl
.it
.nl
.uk
.de
0%
5%
10%
15%
20%
25%
30%
Dynamika przyrostu liczby nazw w DND w europejskich ccTLD, rok do roku
B I U L E T Y N NASK
3
Zdoby wcy godła promocyjnego
NASK laureatem
Teraz Polska
NASK i ABW zostały tegorocznymi laureatami
konkursu „Teraz Polska” w kategorii „innowacje” za system detekcji i wczesnego ostrzegania
o zagrożeniach bezpieczeństwa teleinformatycznego sieci administracji państwa ARAKIS-GOV.
ARAKIS-GOV jest wspólnym przedsięwzięciem zrealizowanym przez Departament Bezpieczeństwa
Teleinformatycznego ABW i Zespół CERT Polska
działający w NASK. Jego podstawę stanowi wcześniejszy projekt pod nazwą ARAKIS (Agregacja,
Analiza i Klasyfikacja Incydentów Sieciowych) opracowany przez CERT Polska. ARAKIS to unikalny system wczesnego ostrzegania, który w sposób zautomatyzowany wykrywa i opisuje nowe zagrożenia w sieci.
Zadania te realizuje za pomocą nowatorskich algorytmów wykorzystujących techniki maszyn uczących
się. System umożliwia przetwarzanie dużej ilości
danych przy zachowaniu niskiego współczynnika fał-
Wykonawcy systemu
NASK (Naukowa i Akademicka Sieć Komputerowa) jest
instytutem badawczym prowadzącym
działalność naukową i wdrożeniową w
dziedzinie rozwoju usług teleinformatycznych i systemów bezpieczeństwa ICT. W NASK od 1996 r. działa zespół CERT Polska
zajmujący się obsługą incydentów naruszających bezpieczeństwo sieci. ARAKIS to jeden z efektów prac badawczo-wdrożeniowych zespołu CERT Polska.
ABW (Agencja Bezpieczeństwa Wewnętrznego) jest
powołana do ochrony porządku konstytucyjnego
Rzeczpospolitej Polskiej. Odpowiada m.in. za ochronę kluczowych systemów i sieci teleinformatycznych
państwa. W 2008 r. w strukturze Departamentu
Bezpieczeństwa Teleinformatycznego ABW powołano rządowy zespół reagowania CERT.GOV.PL. Jednym z jego zadań
jest dalsze wdrożenie ARAKIS-GOV i bieżący nadzór nad systemem.
4
szywych alarmów. Konstrukcja algorytmów sprawia,
że ARAKIS potrafi wykrywać zagrożenia niezależnie
od ich ciągłej ewolucji.
ARAKIS-GOV zabezpiecza sieci teleinformatyczne, uzupełniając działanie standardowych systemów
ochrony sieci, takich jak firewall, antywirus czy
systemy wykrywania włamań. Ze względu na swoją
specyfikę jest stosowany wspólnie z tymi zabezpieczeniami. Unikalną cechą systemu jest to, że nie
monitoruje on treści informacji wymienianych przez
chronioną instytucję z siecią Internet. Sondy systemu instalowane są poza chronioną siecią wewnętrzną
instytucji po stronie sieci Internet.
Użytkownik ARAKIS-GOV uzyskuje informację na
temat nowych zagrożeń globalnych pojawiających się
w sieci Internet, m.in. nowo wykrytych samopropagujących się zagrożeń typu worm (robak sieciowy),
nowych typów ataków obserwowanych z poziomu
dużej liczby lokalizacji, trendów aktywności ruchu
sieciowego na poszczególnych portach i trendów
aktywności wirusów rozsyłanych pocztą elektroniczną.
ARAKIS-GOV dostarcza też informacji na temat
zagrożeń lokalnych związanych z konkretną, chronioną lokalizacją, w tym braku aktualnych szczepionek
antywirusowych zainfekowanych komputerów w sieci
wewnętrznej, nieszczelnej konfiguracji brzegowych
systemów zaporowych czy prób skanowania publicznej przestrzeni adresowej zarówno z Internetu, jak i
z sieci wewnętrznej.
Obecnie sensory systemu zainstalowane są w ponad
60 urzędach szczebla centralnego, administracji terenowej oraz samorządowej.
/mb/
B I U L E T Y N NASK
Nowa monografia
W Y DA R Z ENI A
Naukowcy z NASK publikują
W 2009 roku ukazała się praca
zbiorowa „Programowanie równoległe i rozproszone” pod redakcją Andrzeja Karbowskiego i Ewy
„Programowanie równoległe i rozproszone”
Praca zbiorowa pod redakcją
Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz
Oficyna Wydawnicza PW
Niewiadomskiej-Szynkiewicz
poświęcona zagadnieniom programowania równoległego i rozproszonego.
Autorami
książ-
ki – wydanej przez Oficynę
Wydawniczą PW – są pracownicy Pionu Naukowego NASK i
Politechniki Warszawskiej.
Problematyka przetwarzania równoległego i rozproszonego stanowi
obecnie bardzo ważny obszar badań
naukowych i zastosowań praktycznych. Zadecydował o tym przede
wszystkim ogromny postęp w zakresie sprzętu komputerowego – obec-
nie większość komputerów osobistych to już maszyny równoległe.
Tematem książki jest wykorzystanie
maszyn wieloprocesorowych oraz
sieci maszyn (klastrów lub gridów)
do rozwiązywania złożonych zadań
obliczeniowych. Praca jest monografią zawierającą trzy zasadnicze
wątki dotyczące wstępnych definicji
i pojęć, narzędzi programistycznych
oraz algorytmów i metod obliczeniowych. Omawiane są w niej nowe
architektury sprzętowe do realizacji
obliczeń równoległych i rozproszonych, miary efektywności obliczeń
równoległych, a także podstawowe
paradygmaty programowania równoległego. Praca zawiera m.in. szczegółowe opisy mechanizmów i narzędzi programowania współbieżnego
oraz narzędzi służących do realizacji zdalnych wywołań (architektura klient-serwer). Prezentowane
są mechanizmy i techniki programowania z wykorzystaniem narzędzi z różnych klas. Ostatni rozdział
zawiera opis wybranych algorytmów z dziedziny algebry liniowej
i nieliniowej, w tym także optymalizacji, wraz ze sposobami ich
dekompozycji, równoległej imple-
mentacji oraz analizą poprawności.
Książka jest przeznaczona dla pracowników naukowych różnych specjalności rozwiązujących duże zadania obliczeniowe, pracowników firm
zajmujących się budową złożonych
systemów informatycznych, studentów studiów magisterskich i doktoranckich na kierunkach informatycznych. Może być również pożytecznym źródłem informacji dla
osób zainteresowanych zdobyciem
wiedzy w dziedzinie mechanizmów
zrównoleglania
czesnych
obliczeń,
metod
nowo-
numerycznych
oraz ich realizacji na maszynach
wielordzeniowych, wieloprocesorowych i w sieciach komputerów. Jest
przewodnikiem
wystarczającym
do samodzielnego pisania aplikacji współbieżnych, równoległych i
rozproszonych działających w omawianych środowiskach sprzętowych.
Omawiane w książce programy
można pobrać na stronie www.
Informację podała
dr hab. inż. Ewa Niewiadomska-Szynkiewicz,
Dyrektor ds. Naukowych NASK
B I U L E T Y N NASK
5
Szkolenia, edukacja, popular yzacja
Akademia NASK
Akademia NASK jest nowo powstałym działem,
który odpowiada za tworzenie oraz realizację działalności szkoleniowej, edukacyjnej oraz popularyzatorskiej. Kieruje nim Agnieszka Wrońska. W skład
działu wchodzą dwa zespoły: Zespół Reagowania
na Nielegalne Treści w Internecie – Dyżurnet.pl
(kierownik – Marek Dudek), prowadzony w ramach
programu europejskiego „Safer Internet” oraz Zespół
Szkoleń i Edukacji (kierownik – Anna Rywczyńska).
Zespół Dyżurnet monitoruje i dba o usuwanie nielegalnych
treści znajdujących się w sieci, które są skierowane przeciwko bezpieczeństwu dzieci, a także innych, niezgodnych z
przepisami polskiego prawa, m.in. dotyczących ksenofobii i
rasizmu. Prowadzi także działalność na rzecz podwyższania
poziomu bezpieczeństwa w Internecie.
Do głównych zadań Zespołu Szkoleń i Edukacji należy
tworzenie programów oraz realizacja szkoleń i kursów bazujących na wiedzy ekspertów pracujących w NASK. Zespół
ten organizuje również przedsięwzięcia we współpracy z
partnerami zewnętrznymi. Jednym z istotnych obszarów
jego aktywności są działania non-profit realizowane m.in.
w ramach programu Komisji Europejskiej „Safer Internet”
prowadzonego przez NASK już od 2005 roku. Zespół tworzy także nowe programy edukacyjne obejmujące obszar
bezpiecznego korzystania z Internetu, jak również szeroko
rozumianej edukacji medialnej. Proponowane szkolenia
adresowane są do sektora oświaty – nauczycieli, rodziców,
opiekunów oraz dzieci i młodzieży.
Zespół Szkoleń i Edukacji Akademii NASK oferuje specjalistyczne szkolenia kierowane do sektora biznesu, administracji publicznej oraz instytucji akademickich. Zakres
szkoleń obejmuje wiele obszarów tematycznych, takich jak
bezpieczeństwo systemów teleinformatycznych, modelowanie, optymalizacja, sterowanie i zarządzanie sieciami
6
B I U L E T Y N NASK
teleinformatycznymi, prowadzenie i utrzymywanie rejestru
domen internetowych, metody biometrycznej weryfikacji i
identyfikacji tożsamości. Oferta szkoleniowa jest profilowana pod kątem potrzeb i poziomu zaawansowania odbiorców,
a zakres tematyczny rozszerzany o nowe zagadnienia.
Akademia NASK to również podnoszenie kwalifikacji pracowników. Rozwój kompetencji oraz wymiana doświadczeń
wewnątrz organizacji to ważny kierunek jej działalności. W
najbliższym czasie planowane jest uruchomienie szkoleniowych programów wewnętrznych, dzięki którym pracujący w
NASK specjaliści z różnych dziedzin będą mogli dzielić się
swoją wiedzą wewnątrz organizacji.
/aw/
NASK w ccNSO
NASK jako rejestr nazw w domenie .pl został
przyjęty do organizacji ccNSO (country code
Names Supporting Organisation), która jest
częścią ICANN i zrzesza wyłącznie prawidłowo umocowane rejestry krajowe z całego
świata.
Organizacja ccNSO kreuje politykę ICANN w
zakresie krajowych rejestrów domen najwyższego
poziomu (ccTLD). Decyzje podejmowane przez
Radę Dyrektorów ICANN, mające wpływ na
funkcjonowanie Internetu, a które mogą dotyczyć
ccTLD (country code Top Level Domains), są
konsultowane z członkami ccNSO.
W organizacji zrzeszonych jest obecnie 107 rejestrów z całego świata. Liczba jej członków w ostatnim czasie szybko wzrasta – od początku 2010 roku
do ccNSO przyjęto siedem kolejnych rejestrów.
/ap/
Dla młodych internautów
Festiwal
Nauki w NASK
W ramach XIV Festiwalu Nauki gościliśmy na
prelekcjach i warsztatach uczniów warszawskich
szkół podstawowych i gimnazjów. We wrześniowych spotkaniach wzięło udział ponad 200 młodych osób.
NASK już od wielu
lat aktywnie uczestniczy w Festiwalu
Nauki, organizując
pokazy, lekcje festiwalowe i warsztaty.
W tym roku aż trzy
prelekcje dotyczyły
istotnych spraw związanych z bezpieczeństwem sieciowym. Zespół Metod Bezpieczeństwa Sieci i Informacji,
wchodzący w skład Pionu Naukowego NASK, przygotował dwie prelekcje: „Otoczeni przez czujniki” – dla
dzieci oraz „Surfuj bezpiecznie!” - dla gimnazjalistów.
Uczniowie niezwykle aktywnie uczestniczyli w prowadzonych przez naszych młodych naukowców prezentacjach, którzy z zaangażowaniem dzielili się wiedzą na
tematy związane z bezpieczeństwem. Natomiast dla
najmłodszych internautów zorganizowany został specjalny warsztat o tym, jak bezpiecznie rozpocząć przygodę
z Internetem, co jest najważniejszą zasadą bezpieczeństwa, na kogo trzeba uważać i w jaki sposób bronić się
przed sieciowymi zagrożeniami.
Podczas kolejnych prelekcji grupa gimnazjalistów zdobyła wiedzę o domenach internetowych oraz o zawartości prowadzonego
przez NASK portalu
Polska.pl. Dzięki multimedialnej prezentacji uczniowie poznali
m.in. tajniki działania
systemu rejestracji
domen i zasady two-
W Y DA R Z ENI A
Biometria w praktyce
„Czego oczy nie widzą, to biometria wyjaśni” – pod
takim hasłem odbywały się pokazy zorganizowane
przez pracowników Pionu Naukowego NASK dla
uczestników tegorocznego Pikniku Naukowego
Polskiego Radia i Centrum Nauki Kopernik.
Pracownia Biometrii NASK zorganizowała pokazy testowania systemów biometrycznych wraz z Polską Wytwórnią
Papierów Wartościowych S.A. W trakcie testów można
było stworzyć m.in. wzorzec własnej tęczówki i odcisku
palca, a następnie przejść proces weryfikacji. Dodatkowo
na stanowisku NASK można było zaznajomić się z procesem automatycznej identyfikacji tożsamości takich cech
biometrycznych, jak geometria dłoni czy podpis odręczny.
Testy prowadzono w ramach projektu „Platforma bezpiecznej implementacji biometrii przy realizacji działań związanych z weryfikacją i identyfikacją tożsamości” współfinansowanego przez Ministerstwo Nauki
i Szkolnictwa Wyższego, realizowanego w ramach
obszaru „Bezpieczeństwo wewnętrzne państwa”.
NASK był również instytucją wspierającą organizację
Pikniku,
która
zapewniła
wystawcom bezprzewodową łączność z Internetem.
/mb/
rzenia atrakcyjnej nazwy internetowej. Zespół Polska.pl
zaprosił młodzież gimnazjalną do twórczych warsztatów
na temat różnych dziedzin nauki, jakie można znaleźć
w serwisie. Poszczególne grupy uczestników festiwalu
odkrywały tajemnice archiwów, starych dokumentów
miast polskich, poznawały sekrety przyrody, dzieła wielkich twórców literatury, a także techniczne aspekty
działania portalu.
/am/
B I U L E T Y N NASK
7
Nowości w ofercie usługowej
Dla firm z sektora ISP
NASK przygotował specjalną ofertę dla firm z sektora ISP w postaci atrakcyjnych cenowo pakietów
usług, które pozwalają spełnić wymagania stawiane firmom ISP przez regulatorów i zapewniają
bezpieczeństwo rozwiązań oferowanych klientom
końcowym.
NASK proponuje operatorom wysokiej jakości usługi
tranzytu ruchu IP, w tym m.in. pełny tranzyt ruchu IP
(ruch krajowy i zagraniczny), tranzyt ruchu krajowego
IP, tranzyt ruchu zagranicznego IP oraz tranzyt ruchu
zagranicznego IP DE-CIX (połączenie z ponad 200
operatorami w punkcie wymiany ruchu we Frankfurcie).
Usługi te są realizowane z wykorzystaniem protokołu
BGP (Border Gateway Protocol), a ich parametry gwarantowane umowami SLA (Service Level Agreement).
W ofercie dedykowanej nie mogło też zabraknąć telefonii: NASK
proponuje providerom SIP trunk, usługę połączenia platformy
telefonii IP klienta z platformą NASK za pośrednictwem sieci
IP – np. w oparciu o tranzyt ruchu IP lub dedykowane dla ruchu
głosowego łącze transmisji danych. Operatorom ISP, którzy cenią
sobie niezależność oraz planują zwiększenie zakresu działania,
NASK proponuje też pomoc w pozyskaniu własnego numeru
ASN od organizacji RIPE.
W ramach pakietów z atrakcyjnymi rabatami NASK
oferuje kwalifikowane reagowanie na incydenty – unikatowe usługi związane z reagowaniem na przypadki naruszenia bezpieczeństwa teleinformatycznego.
Zostały one opracowane specjalnie na potrzeby firm
ISP – z uwzględnieniem wymagań specyficznych dla
providerów oraz charakteru ich działalności. Dodatkowo
– również w ramach pakietów – NASK jako ekspert w
dziedzinie bezpieczeństwa teleinformatycznego poleca
usługę backupu online. Jest ona skierowana do klientów,
którzy dbają o ochronę i dostępność swoich danych oraz
spełnienie wymagań regulacyjnych.
Przedsiębiorcy zainteresowani taką formą współpracy
mogą przystąpić do programu partnerskiego dla firm
pośredniczących w sprzedaży usług NASK.
/jł/
8
B I U L E T Y N NASK
Corporate
Token
Do oferty produktów bezpieczeństwa NASK dołączyła w tym roku usługa Corporate Token, która
pozwala na łatwą i szybką implementację mechanizmów silnego uwierzytelniania bez konieczności
wdrażania w infrastrukturze firmy serwera uwierzytelniającego.
Corporate Token wykorzystuje produkty renomowanego międzynarodowego dostawcy EMC/RSA Security.
Rozwiązanie powstało na bazie tokenów SecurID zapewniających wiarygodne uwierzytelnienie użytkownika
wykorzystujące dwa elementy: PIN-kod i zmienną część
jednorazowego hasła. W ramach usługi NASK dzierżawi
klientom generatory części zmiennej hasła – tokeny
EMC/RSA Security SID-700.
Usługa Corporate Token świadczona jest w modelu
Managed Security Services – pełnego outsourcingu
infrastruktury uwierzytelniającej zlokalizowanej w centrum danych NASK. Bazą usługi jest wdrożony w NASK
klaster niezawodnościowy zbudowany z serwerów uwierzytelniających EMC/RSA Security Authentication
Manager. Jego wieloprocesowa architektura pozwala na
obsługę ogromnej liczby użytkowników na pojedynczym
serwerze oraz setek jednoczesnych żądań uwierzytelnienia. Corporate Token zapewnia klientom łatwą i szybką
implementację mechanizmów silnego uwierzytelniania bez konieczności wdrażania w swojej infrastrukturze serwera uwierzytelniającego. Gwarantuje również
utrzymanie systemu przez NASK oraz zapewnia panel
administracyjny pozwalający na zarządzanie kontami
użytkowników.
/jł/
Sukcesy zespołu reagowania
Rozwiązanie klasy operatorskiej
W Y DA R Z ENI A
CERT Polska liderem
Portfolio usług transmisji danych NASK
zostało wzbogacone o nową usługę –
E-Line. Przeznaczona jest ona głównie
dla operatorów telekomunikacyjnych i
firm outsourcingowych, którym zależy
na bezpiecznej, elastycznej i nowoczesnej infrastrukturze sieciowej.
E-Line to wysokiej klasy profesjonalna usługa transmisji danych punkt-punkt w protokole Ethernet (EPL, EVPL). Wyróżniają
ją między innymi: możliwość konfiguracji
trybu Q-in-Q, monitoringu łącza end-to-end
w protokole Ethernet oraz tak ważne dla
klientów stałe parametry jakościowe transmisji danych. Ponadto oferowane przez NASK
E-line ma bardzo szeroki zakres potencjalnych
zastosowań. Sprawdza się jako połączenie dwóch
fizycznie odległych sieci lokalnych LAN i jako element infrastruktury do realizacji prywatnej telefonii VoIP. Ponadto można stosować ją jako sieć
podkładową do budowy rozległej sieci IP/MPLS
czy do zestawiania dedykowanych kanałów
transmisyjnych na potrzeby łączenia systemów
informatycznych.
Działający przy NASK zespół CERT Polska jest obecnie
światowym liderem w dziedzinie reagowania na zagrożenia bezpieczeństwa w sieci. W tegorocznym raporcie
na temat stanu cyberbezpieczeństwa w Europie przedstawionym przed brytyjską Izbą Lordów CERT Polska
został wskazany jako wzorcowy
przykład dla nowo powstających
zespołów o tym charakterze.
CERT Polska wniósł znaczący
wkład merytoryczny w program międzynarodowej konferencji
FIRST, która odbyła się w czerwcu br. w Miami. Organizatorem
tego dorocznego wydarzenia jest FIRST (Forum for Incident
Response and Security Teams). Organizacja ta zrzesza ponad
200 zespołów z sześciu kontynentów działających przy uczelniach i rządach wielu państw w sektorze bankowym i w wielkich korporacjach (CERT Polska jest członkiem FIRST od
1997 r.).
Podczas konferencji wiele miejsca poświęcono tematom związanym z bezpieczeństwem i prywatnością w systemach cloud computing. Omawiano kwestie ataków dedykowanych, zaprezentowane
zostały również przykłady rozwiązań organizacyjnych i technicznych związanych z bezpieczeństwem i reagowaniem na incydenty.
Projekt WOMBAT wraz z demonstracją API został także przedstawiony na towarzyszącym konferencji FIRST spotkaniu zespołów
narodowych. Od kilku lat spotkania te organizuje ośrodek koordynacyjny zespołów reagowania CERT/CC.
rozwiązanie – dzięki zastosowaniu zarządzalnych urządzeń Ethernet Demarcation Device
– pozwala na jednoznaczne rozgraniczenie
sieci rozległej Ethernet NASK i sieci LAN
klienta oraz zdalny monitoring usługi w protokole Ethernet.
Usługa E-Line jest następcą usług dzierżawy kanałów cyfrowych w sieciach PDH/
SDH oraz połączeń CES (Circuit Emulation
Service) w sieciach ATM, w których tworzeniu NASK jest pionierem w skali kraju.
Członkowie zespołu podczas konferencji wygłosili szereg
wykładów i prezentacji dotyczących projektów badawczo-rozwojowych prowadzonych w związku ze wzrostem zagrożeń
bezpieczeństwa w Internecie, współpracy i samoregulacji
polskich dostawców usług internetowych w zakresie zwalczania przestępczości online oraz międzynarodowych projektów
FISHA i WOMBAT, w których CERT Polska uczestniczy.
/jł/
/pj, am/
B I U L E T Y N NASK
9
W Y DA R Z ENI A
Jak
W świecie Internetu
bezpiecznie
surfować
Już po raz czwarty w Warszawie odbyła się międzynarodowa konferencja poświęcona bezpiecznemu wykorzystywaniu Internetu i nowych mediów
przez dzieci i młodzież. Tematem wiodącym tegorocznej edycji było bezpieczeństwo użytkowników
w serwisach społecznościowych oraz zagadnienia
ochrony prywatności online.
Organizatorem konferencji jest Polskie Centrum
Programu Safer Internet prowadzone przez Naukową
i Akademicką Sieć Komputerową (NASK) i Fundację
Dzieci Niczyje (FDN) oraz klicksafe – organizacja
Marcin Bochenek,
Zastępca Dyrektora NASK ds. Projektów
Strategicznych otwiera konferencję
wprowadzająca w życie podobny program na terenie
Niemiec. Konferencja odbywa się każdego roku w
ramach programu Komisji Europejskiej „Safer Internet”.
W tym roku poparcia udzieliła jej Neelie Kroes, wiceprzewodnicząca Komisji Europejskiej i komisarz europejska ds. agendy cyfrowej. Głównym partnerem wydarzenia była Fundacja Orange.
Konferencję zaadresowaliśmy przede wszystkim do przedstawicieli sektora edukacyjnego, organizacji pozarządowych,
instytucji wymiaru sprawiedliwości i organów ścigania oraz
dostawców usług i treści internetowych. Większość uczestników
konferencji to osoby zaangażowane w działania na rzecz
bezpieczeństwa online w swoich lokalnych społecznościach.
Zdobytą podczas konferencji wiedzę wykorzystują podczas
szkoleń, zajęć z dziećmi, organizacji lokalnych wydarzeń i
kampanii. Ta aktywność jest szczególnie zauważalna podczas
corocznych obchodów Dnia Bezpiecznego Internetu – relacjonuje Agnieszka Wrzesień z FDN, przewodnicząca
konferencji.
10
B I U L E T Y N NASK
Głos zabiera Richard Swetenham,
przedstawiciel Komisji Europejskiej
W ciągu dwóch dni ponad 500 delegatów z 30 państw
dyskutowało o bezpieczeństwie dzieci i młodzieży w
Internecie. Uczestnicy wzięli udział w specjalistycznych
sesjach prowadzonych przez uznanych ekspertów z
Polski i zagranicy, którzy zaprezentowali szereg innowacyjnych działań edukacyjnych podejmowanych w celu
Eksperci o szkodliw ych treściach
ochrony najmłodszych w wirtualnym świecie – dodaje Anna
Rywczyńska z NASK, wiceprzewodnicząca konferencji.
Nie sposób wymienić wszystkich prezentacji, które
odbywały się podczas sesji plenarnych i sesji równoległych. Ważnym punktem programu było wystąpienie
Richarda Swetenhama z Komisji Europejskiej, który
przedstawił założenia Porozumienia dotyczącego samoregulacji w zakresie bezpieczeństwa w portalach społecznościowych, podpisanego ponad półtora roku temu.
Podczas konferencji można było ocenić, w jaki sposób
zapisy dokumentu były wdrażane przez czołowe portale
społecznościowe, takie jak nk.pl czy Stardoll.com.
Uczestnicy konferencji
również standardy stron kierowanych do dzieci – swoimi
John Carr z eNACSO (Wielka Brytania) podjął temat
zagrożeń płynących z portali społecznościowych, zajął
się także potencjalnym niebezpieczeństwem, które
grozi użytkownikom systemów lokacyjnych w telefonach komórkowych. Helen Whittle z CEOP (Wielka
Brytania) i Birgit Echtler z pro familia Bayern (Niemcy)
podjęły temat wpływu nowych mediów na seksualizację
młodych ludzi i związane z tym zagrożenia.
doświadczeniami podzielili się twórcy stron dziecięcych, takich jak Ciufcia.pl, Jojo.pl i słowacka Ovce.sk.
O tym, jak projektować strony internetowe dla dzieci
niewidomych i niedowidzących, opowiedział z kolei
przedstawiciel Fundacji Widzialni.
Przedstawicieli wymiaru sprawiedliwości i organów
ścigania szczególnie zainteresować mogły wystąpie-
Prelegenci z Rumunii i Finlandii opowiedzieli o angażowaniu dzieci w projekty edukacyjne oraz o tym, jak dużą
rolę w kształtowaniu odpowiedzialnych postaw online
odgrywa edukacja rówieśnicza. Specjaliści z Fundacji
Dzieci Niczyje zaprezentowali m.in. nowe kursy e-learningu dla dzieci i profesjonalistów oraz bezpieczną przeglądarkę internetową dla dzieci BeSt. Jedną z kwestii
dyskutowanych podczas tegorocznej konferencji były
Polskie Centrum Programu Safer Internet powołane zostało w 2005 r. w ramach programu Komisji Europejskiej „Safer
Internet”. Tworzą je Fundacja Dzieci Niczyje oraz Naukowa
i Akademicka Sieć Komputerowa – koordynator Centrum.
Centrum podejmuje szereg kompleksowych działań edukacyjnych na rzecz bezpieczeństwa dzieci i młodzieży korzystających
z Internetu i nowych technologii. W ramach Centrum działają
również zespoły: Dyżurnet.pl - polski punkt ds.
zwalczania nielegalnych treści w Internecie oraz
Helpline.org.pl - punkt pomocy dla dzieci, rodziców
i profesjonalistów w przypadkach zagrożeń w Internecie.
Więcej informacji o programie w Polsce: www.saferinternet.pl
nia dotyczące treści szkodliwych, które do tej pory
nie doczekały się jeszcze penalizacji w polskim prawie. Organizatorzy konferencji wraz z przedstawicielem policji opowiedzieli także o przebiegu i efektach
niedawno przeprowadzonej
kampanii spo-
łecznej „Każdy ruch w Internecie zostawia ślad”.
Honorowy patronat nad konferencją objęli:
prof. Barbara Kudrycka - Minister Nauki
i Szkolnictwa Wyższego,
Katarzyna Hall - Minister Edukacji Narodowej,
Krzysztof Kwiatkowski - Minister Sprawiedliwości,
Anna Streżyńska - Prezes Urzędu Komunikacji
Elektronicznej,
Jerzy Miller - Minister Spraw Wewnętrznych
i Administracji.
/ar, jg/
B I U L E T Y N NASK
11
W Y DA R Z ENI A
Rejestracje w świetle statystyk
K ATARZYNA SOBCZYK
Polska
domenowa
Dane dotyczące utrzymania
NASK utrzymuje już 1,84 miliona nazw domeny .pl, z czego
prawie 1,76 miliona stanowią nazwy domeny, do których przypisane są krajowe dane adresowe. Na początku sierpnia bieżącego roku NASK dokonał analizy liczby zarejestrowanych nazw
domeny .pl w poszczególnych województwach i powiatach Polski.*
nazw domen w poszczególnych częściach kraju
wykazują ścisłą zależność
Poniższa mapa ukazuje procentowy podział utrzymywanych polskich nazw
domeny w 16 województwach. Wyniki analizy pokazują, że najwięcej nazw
domeny .pl zarejestrowanych jest w województwie mazowieckim – 27,15
proc., a następnie w śląskim – 10,50 proc., małopolskim – 9,80 proc.,
wielkopolskim – 8,26 proc. i dolnośląskim – 7,90 proc. Najmniej, czyli
poniżej 2 proc. utrzymywanych nazw domeny .pl odnotowano w województwie opolskim – 1,68 proc. i województwie świętokrzyskim – 1,32 proc.
pomiędzy liczbą domen
a poziomem rozwoju
społeczno-gospodarczego
danego regionu.
zachodniopomorskie
4,63%
pomorskie
6,08%
warmińsko-mazurskie
2,42%
kujawsko-pomorskie
3,99%
lubuskie
2,56%
wielkopolskie
8,26%
dolnośląskie
7,90%
podlaskie
2,23%
mazowieckie 27,15%
w tym Warszawa 19,15%
łódzkie
5,20%
opolskie
1,68%
śląskie
10,50%
lubelskie
3,27%
świętokrzyskie
1,32%
małopolskie
9,80%
podkarpackie
3,00%
Sytuacja w poszczególnych powiatach jest bardzo zróżnicowana, zależy głównie od gęstości zaludnienia oraz rozwoju gospodarczego. Najwięcej nazw domeny rejestrowanych jest w miastach na prawach powiatu. Udział powyżej
1 proc. odnotowano w 13 dużych miastach Polski. Prym wiedzie Warszawa, gdzie zarejestrowanych jest 19,15 proc. nazw
domeny .pl. Na następnych miejscach plasują się: Kraków
– 5,37 proc., Wrocław – 4,26 proc. i Poznań – 3,57 proc.
Obecnie
w
205
powiatach
utrzymywanych
jest
poniżej 0,1 proc. nazw domeny. Najmniejszy udział – 0,01 proc.
ma powiat grudziądzki w województwie kujawsko-pomorskim.
% rejestracji domen .pl w województwach
<1
1-3
3-5
5-8
8-10
10-20 20-40 40-70
>70
* Dane z pierwszej połowy sierpnia br.
Autorka jest kierownikiem
Zespołu Rozwoju Programu Partnerskiego DNS w NASK
12
B I U L E T Y N NASK
Budowa sieci klienckich
USŁUGI
MICHAŁ ROTNICKI
Ethernetowa
rewolucja
T
echnologia połączeń sieciowych
Ethernet to w świecie nowoczesnych technik telekomunikacyjnych
i informatycznych swego rodzaju
relikt, żeby nie powiedzieć dinozaur. A jednak – mimo ciągłego
poszukiwania nowych rozwiązań
dla transmisji danych – oparła się
ona upływowi czasu i nadal jest
jedną z najbardziej dynamicznie
rozwijanych technik sieciowych.
„Rewolucji nie robi się
ani nie zatrzymuje dobrowolnie”
Napoleon Bonaparte
Technika
Ethernet
została
opracowana w roku 1976 (czyli już
34 lata temu) w ośrodku badawczym XEROX PARC przez Roberta
Metcalfe’a z myślą o realizacji połączeń na krótkich odcinkach pomiędzy niewielkimi liczbami komputerów. Od tego momentu Ethernet
rozpoczął swój podbój świata sieci
lokalnych, udowadniając, że jest
najprostszą i najbardziej użyteczną techniką budowy sieci LAN.
Niedługo potem zaczęły pojawiać
się (i znikać) kolejne techniki
wspierane przez gigantów branży
– jak choćby Token Ring opracowany przez firmę IBM. O większości
konkurencyjnych rozwiązań nikt już
nie pamięta, a sieci Ethernet wciąż
używamy w każdym niemal biurze
i domu.
Proste rozwiązania
Można przypuszczać, że powszechność technologii Ethernet wynika z
jej ogromnej użyteczności. Wystarczy
pospinać komputery kablami, dołożyć switche… i sieć zaczyna działać.
Trochę lepiej lub trochę gorzej, ale
w pierwszym ruchu nic więcej robić
nie trzeba. Jakie są ograniczenia tego
rozwiązania? Powszechnie zakładano, że tak zbudowana sieć LAN
przestanie poprawnie działać, jeśli
jej wysycenie zbliży się do około 70
proc.
Nowoczesna implementacja
technologii Ethernet umożliwia
zastosowanie nowych
sposobów transmisji danych,
takich jak oferowane przez
NASK usługi E-Line
i Metro VPN.
Jednocześnie rozwój technik przesyłu danych w rozległych sieciach
telekomunikacyjnych szedł zupełnie inną ścieżką – skupiano się
na projektowaniu i budowie sieci
zapewniających wysoką jakość transmisji. Operatorzy telekomunikacyjni zbudowali sieci SDH/SONET,
które umożliwiają realizację kanałów doskonale przenoszących bity
na największe odległości, pojawiły się też rozwiązania mieszane
B I U L E T Y N NASK
13
Realizacja połączeń Ethernet
– sieci FR/ATM, w których przełączano pakiety – ale ich minusem
było to, że nadal trzeba było ściśle
definiować wirtualne kanały, które
łączyły określone punkty sieci (VC).
Dwa światy – z jednej strony techniki stosowane przez administratorów sieci LAN, z drugiej zaś sieci
WAN – musiały się w końcu spotkać. Wszak liczba kłopotliwych
dla telekomów pytań w stylu „Czy
pomiędzy oddziałami mojej firmy
można zestawić sieć Ethernet, która
połączy moje sieci LAN?” wciąż
rosła. Były to pytania o tyle istotne,
że dostarczenie połączenia Ethernet
(Layer-2) przezroczyście przenoszącego protokoły warstwy trzeciej
(takie jak IP, IPX i inne) pozwoliłoby administratorom:
samodzielnie administrować
routerami obsługującymi protokoły
warstwy trzeciej (IP, IPX),
kupować usługę prostszą,
a przez to tańszą,
realizować połączenia pomiędzy wieloma lokalizacjami – tak jak
to się dzieje w sieci LAN łączącej
wiele komputerów.
Nowe propozycje
Prośbom klientów trudno się oprzeć,
więc przez ostatnie 10 lat operatorzy telekomunikacyjni stosowali wiele karkołomnych sztuczek,
aby za pomocą technologii, które
mieli już wdrożone w swoich sieciach, dostarczyć usługę transmisji
ramek Ethernet, o których marzyli
ich klienci. W ten sposób powstały
takie rozwiązania, jak Ethernet over
SDH (czyli zestawienie pomiędzy
dwoma punktami łącza E1) czy konwersja styku abonenckiego na pro-
14
B I U L E T Y N NASK
tokół Ethernet. Jednocześnie około
roku 2002 ruszyły prace standaryzacyjne mające na celu przystosowanie
techniki Ethernet (służącej początkowo do obsługi jednego biura) do
potrzeb budowy profesjonalnych
sieci rozległych świadczących usługi dla tysięcy klientów. W efekcie,
w sposób całkowicie nieoczekiwany,
ale jak najbardziej unormowany i
ustandaryzowany, operatorzy telekomunikacyjni zaczęli świadczyć usługi połączeń Ethernet punkt-punkt i
punkt-wielopunkt.
Dlaczego w sposób nieoczekiwany?
Bo do realizacji połączeń Ethernet
zaprzęgnięto w sieciach operatorskich technikę MPLS znaną wcześniej z realizacji połączeń VPN w
warstwie trzeciej (IP VPN) i służącą
dotychczas do przesyłania pakietów
IP.
Od
strony
klienta
pojawiły się urządzenia z dowolnym
(elektrycznym lub optycznym)
interfejsem Ethernet. Natomiast
operatorzy w swojej sieci rozległej
zaczęli wykorzystywać do przełączania ruchu klienckiego dodawane
przez siebie etykiety MPLS, dzięki czemu nie ingerują w nagłówki
ramek Ethernet. Pozwala to klientom na korzystanie z pełnej funkcjonalności protokołu Ethernet – mogą
oni więc na przykład konfigurować
VLAN-y w sposób całkowicie niezależny od operatora telekomunikacyjnego.
Jednocześnie udało się rozwiązać
kolejny kłopot: jak ustalić granicę
pomiędzy siecią Ethernet LAN
a siecią Ethernet WAN. Pojawiły
się urządzenia określane jako
ethernetowy punkt demarkacyjny
(Ethernet Demarcation Device),
które umożliwiają operatorom
telekomunikacyjnym pełną kontrolę
swoich usług end-to-end oraz – co
najważniejsze – monitoring parametrów SLA, takich jak:
dostępność usługi,
opóźnienie ramek,
fluktuacja opóźnienia ramek,
utrata ramek.
Przykładową implementacją tego
typu nowoczesnych usług transmisji
w technologii Ethernet dla klientów biznesowych są dwie usługi
oferowane przez NASK – pioniera
sieci VPN w Polsce.
Pierwsza z nich to usługa E-Line,
która
umożliwia
zestawianie połączeń punkt-punkt i jest
realizowana w sieci szkieletowej
NASK z wykorzystaniem techniki MPLS i routerów Juniper (RFC
4906). Operator udostępnia swoim
klientom usługę E-Line w trybie
Q-in-Q, dzięki czemu mogą oni
samodzielnie definiować aż do 4095
VLAN-ów. Jednocześnie każde
zakończenie łącza E-Line jest wyposażone w zarządzane przez NASK
urządzenie Ethernet Demarcation
Device. Takie rozwiązanie pozwala
na monitoring parametrów dostępności usługi, a tym samym na zapewnienie klientom jej wysokiej jakości.
Drugim przykładem implementacji technologii Ethernet jest usługa
Metro VPN, która rozwijana jest
przez NASK nieprzerwanie od roku
2006. Umożliwia ona realizację połączeń Ethernet pomiędzy wieloma
lokalizacjami, zapewniając komunikację „każdy z każdym”. Podobnie
Łatwość obsługi
Wirtualny tunel
(L2Circuit)
Ramka Ethernet
Użytkownika A
Etykiety MPLS
Użytkownik A
LAN-1
Użytkownik A
LAN-1
Punkt demarkacyjny
Ethernet
Sieć MPLS Operatora
telekomunikacyjnego
Rys. 1. Przykład tunelowania w sieci IP/MPLS kanału VC (L2Circuit) z ruchem klienta
jak w usłudze E-Line, tak i tu możliwe jest samodzielne konfigurowanie
VLAN przez klientów (tryb Q-in-Q),
a każde zakończenie łącza abonenckiego jest wyposażane w ethernetowy punkt demarkacyjny służący do
kontroli dostępności usługi i parametrów jakościowych transmisji.
Protokół Ethernet – łatwy w podstawowej obsłudze i przyjazny dla
administratorów sieci – nadal żyje
i ma się dobrze mimo swoich 34
lat. Operatorzy telekomunikacyjni
nauczyli się wykorzystywać jego
zalety i niwelować mankamenty,
choćby dzięki zastosowaniu nowych
rozwiązań bazujących na MPLS.
Technologia Ethernet to obecnie
jeden z najgorętszych tematów.
Już dzisiaj widać, że warto zastanowić się nad zastosowaniem rozwiązań Ethernet do budowy połączeń wewnątrzfirmowych, bo przed
nami co najmniej 34 lata rozwoju.
I kolejne, coraz bardziej wyrafinowane wcielenia tego protokołu sieciowego.
Autor jest menedżerem produktów „Sieci
Korporacyjne” w NASK
VPN Użytkownika A
(Virtual Private LAN Service)
Ramka Ethernet
Użytkownika A
Etykieta MPLS
Użytkownik A
LAN-1
Użytkownik A
LAN-1
VPLS
Użytkownika A
Użytkownik A
LAN-1
Użytkownik A
LAN-1
Sieć MPLS Operatora
telekomunikacyjnego
Punkt demarkacyjny
Ethernet
Rys. 2. Schemat sieci łączącej wiele oddziałów i zapewniającej komunikację „każdy z każdym”
dla protokołu Ethernet (VPLS)
B I U L E T Y N NASK
15
BE Z P IEC Z EŃS T W O
Gromadzenie i opracow y wanie danych
PAWEŁ JACEWICZ
Śledzenie zagrożeń
w sieci
WOMBAT (Worldwide
Observatory of Malicious
Behaviors and Attack Threats)
to Światowe Obserwatorium
P
rojekt szczególny nacisk kładzie
na identyfikację przyczyn występowania zagrożeń oraz możliwe
powiązania między nimi. System,
gromadząc dane z wielu źródeł, ma
na celu stworzenie bazy danych,
Złośliwych Zachowań
i Zagrożeń. Jego celem jest
stworzenie nowatorskich metod
analizy nowych zagrożeń pojawiających się w sieci Internet.
których analiza umożliwi identyfikację charakterystyk obserwowanych zagrożeń. Heterogeniczność
źródeł danych umożliwi gruntowną
analizę informacji o zagrożeniach
w znacznie szerszej perspektywie
niż mogły to zapewnić istniejące
dotychczas systemy. Uzyskane w ten
sposób wyniki posłużą do rozwinięcia technik typu threat intelligence
(śledzenie zagrożeń), których głównym celem jest klasyfikacja grup
zagrożeń oraz ustalenie ich cech
wspólnych. Pozwoli to na szybszą
identyfikację starszych typów, które
ponownie stały się aktywne oraz
pomoże w przewidywaniu nowych
16
B I U L E T Y N NASK
na podstawie
trendów.
zaobserwowanych
Wykrywanie złośliwej działalności
HoneySpider Network jest jednym
ze źródeł danych w ramach projektu WOMBAT. Należy on do klasy
hybrydowych honeypotów klienckich. Narzędzia tego typu służą do
wykrywania i analizy złośliwego
oprogramowania, które propaguje się
w sposób bierny – głównie przez
skompromitowane serwisy www.
Tworzy on system, który integruje wysoko oraz nisko interaktywne
klienckie honeypoty, zapewniając
tym samym wysoki poziom gwarancji wykrywania nawet tych ataków,
które wcześniej nie były obserwowane. Wydajność systemu honeypotów,
który potrafi sklasyfikować dziesiątki tysięcy stron www dziennie, jest
podstawowym atutem z perspektywy ilości informacji, jaką może
dostarczyć do projektu WOMBAT.
HoneySpider Network jest narzędziem, którego celem jest określenie zagrożenia, jakie niesie ze sobą
Narzędzia klasyfikacji
odwiedzenie danego adresu URL.
Poza samą klasyfikacją strony www
system gromadzi także szereg dodatkowych informacji. Tworzą one kontekst, który jest niezmiernie ważny
w określaniu źródła niebezpieczeń-
rzystać informacje dostępne w bazie
danych projektu. Rozwija się ono niezależnie od projektu HoneySpider
Network z założeniem, że będzie
wykorzystywane przez specjalistów
z dziedziny bezpieczeństwa IT, co
rzystywanych adresów IP i wersje
skompromitowanego oprogramowania pozwolą jednoznacznie wykryć
źródła ataków i pomóc w ograniczeniu ich zasięgu. W przypadku, gdy
usunięcie niebezpieczeństwa nie jest
Aplikacja do wizualizacji zależności pomiędzy przeskanowanymi stronami www
stwa, a także roli, jaką odgrywa skompromitowana strona www w scenariuszu ataku oraz potencjalnych grup
przestępczych, które mogą za atak
odpowiadać. Celem wykorzystania
systemu HoneySpider Network w
projekcie WOMBAT jest odkrywanie zależności pomiędzy skompromitowanymi serwerami www oraz
serwerami dystrybuującymi złośliwe
oprogramowanie. Określenie sieci
powiązań pozwoli na natychmiastową reakcję w przypadku pojawienia się nowego zagrożenia oraz
jego efektywniejsze usunięcie.
Oprogramowanie wizualizujące
W celu lepszej analizy danych gromadzonych przez system HoneySpider
Network tworzone jest oprogramowanie, które pozwoli w pełni wyko-
pozwala na dostosowanie go do unikalnych potrzeb, jakimi odznaczają
się zespoły reagowania na incydenty.
W swej obecnej formie prototyp
narzędzia przedstawia różnego
rodzaju powiązania pomiędzy zaobserwowanymi złośliwymi stronami
www. Poza siatką przekierowań prowadzącą do serwerów dystrybuujących złośliwe oprogramowanie narzędzie będzie umożliwiać zbudowanie
grafów zależności na bazie informacji
kontekstowych dostępnych w opisie
każdego przeskanowanego adresu
URL. Możliwe do przedstawienia
będą np. zależności oparte na informacjach o geolokalizacji każdego z
serwerów w ścieżce przekierowań,
która prowadzi do infekcji komputerów. Wzbogacone dodatkowo o charakterystyki, takie jak pule wyko-
możliwe, informacje o celu ataku są
niezmiernie ważne, aby podjąć kroki
w celu zaalarmowania odpowiednich
grup użytkowników o potencjalnym
niebezpieczeństwie. Mogą w tym
pomóc informacje takie, jak symulowana wersja przeglądarki i źródło,
z jakiego uzyskaliśmy adres URL do
przeskanowania.
Gromadzenie informacji
W czasie procesu klasyfikacji
HoneySpider Network gromadzi
podstawowe informacje o rodzaju
złośliwego oprogramowania, które
jest rozpowszechniane oraz typie
podatności, jaka była wykorzystana
w celu infekcji. Informacje tego typu
są uzyskiwane za pomocą zewnętrznych serwisów i zapisywane także
jako kontekst, w jakim została przeB I U L E T Y N NASK
17
Analiza złośliwego oprogramowania
prowadzona klasyfikacja. W swej
Podsumowanie
wersji finalnej narzędzie będzie
prezentować te oraz szereg innych
zależności, by w ostatecznej fazie
projektu WOMBAT posłużyć jako
jedna z metod identyfikacji grup
przestępczych odpowiedzialnych za
pojawienie się zagrożenia.
Wszystkie z wymienionych oraz
wiele dodatkowych danych są gromadzone w specjalnie do tego celu
zaprojektowanej bazie, co umożliwi późniejszą gruntowną analizę.
Przechowywane są w sposób umożliwiający śledzenie zmian, jakie
zachodziły od czasu pierwszego
wykrycia zagrożenia związanego z
daną witryną www. Tego typu informacje są niezmiernie przydatne w
określaniu kierunku rozwoju zagrożeń i odkrywaniu powiązań pomiędzy sposobami propagacji, typem
złośliwego oprogramowania oraz grupami przestępczymi odpowiedzialnymi za jego rozpowszechnianie.
Projekt WOMBAT jest odpowiedzią na realne zagrożenia, z jakimi
na co dzień borykają się specjaliści zajmujący się bezpieczeństwem
IT. Narzędzia, jakie powstają w
jego ramach, mają na celu ułatwienie i podniesienie efektywności ich
pracy, co w efekcie doprowadzi do
aktywnego przeciwdziałania nowym
typom ataków. Zespoły specjalistów
opracowują nowe narzędzia oraz sposoby przewidywania źródeł ataków,
by móc w efektywny sposób im
przeciwdziałać i podnosić poziom
bezpieczeństwa wszystkich użytkowników Internetu.
Źródła:
Opis projektów na stronie CERT Polska:
http://www.cert.pl/projekty
Strona projektu HoneySpider Network:
http://www.honeyspider.net/
Strona
projektu
WOMBAT:
http://www.wombat-project.eu/
Ocena poziomu zagrożeń
Dokładne określenie typu zagrożenia i grupy odpowiedzialnej za
jego powstanie wymaga współpracy wszystkich partnerów projektu.
Narzędzie do wizualizacji w stanie
obecnym (prototyp) obsługuje jedynie projekt HoneySpider Network
jako główne źródło danych. W wersji finalnej narzędzie będzie gromadzić informacje z wielu niezależnych od siebie źródeł i umożliwiać ich korelację oraz przedstawienie w spójny i łatwy do analizy przez operatora sposób. Jest
to niezmiernie ważne w szybkim
oszacowaniu poziomu zagrożenia
oraz podjęciu właściwych kroków w
celu jego usunięcia lub ograniczenia.
18
B I U L E T Y N NASK
Autor pracuje w NASK w Dziale CERT
Polska
O
bserwując adresy stron internetowych, coraz częściej
można zauważyć podejmowanie
różnych prób uporządkowania
danych na tych stronach zawartych. Jedno z takich działań
można rozpoznać po obecności
dodatkowej kropki w adresie
strony internetowej. Dla lepszego
zilustrowania – przeglądając stronę pod przykładowym adresem
http://uvwxyz.pl,
w
pewnym momencie spostrzegamy, że po jednym z kliknięć
adres wyświetlony w przeglądarce wygląda następująco:
http://xyz.uvwxyz.pl.
Stale
zwiększająca się liczba informacji w Internecie oraz potrzeba pewnej indywidualizacji w
zakresie dostępu do danych w
globalnej sieci powoduje, że
coraz częściej ową dodatkową
kropkę uzyskują adresy stron
internetowych związane np. z
wydzieloną tematycznie częścią
danego serwisu, miejscowością
promowaną w ramach danego
regionu albo konkretną osobą
spośród szerszego grona prezentującego się w ramach strony
internetowej. Wiele podmiotów
dostrzegło także możliwość
Analiza prawna
DOMEN Y
KONRAD MARZĘCKI
Uaktywnienie
subdomen
komercyjnego wykorzystania potencjału wskazanych powyżej działań.
o których mowa w poprzednim zdaniu.
Czym właściwie jest owo wydzielenie? Jaki jest jego charakter faktyczny i prawny?
W strefie .pl
Kluczową kwestią dla problemów
poruszanych w niniejszym artykule
jest możliwość tworzenia subdomen
w strefie .pl. Jeżeli chodzi o subdomeny w domenie pierwszego poziomu (podobnie dla wybranych domen
drugiego poziomu wskazanych na
stronie www.dns.pl, np. com.pl,
org.pl itd.), tworzenie jest możliwe
oczywiście przez zarejestrowanie
takiej nazwy domeny w Naukowej
i Akademickiej Sieci Komputerowej
(NASK) poprzez zawarcie stosownej
umowy o rejestrację i utrzymywanie nazwy domeny. Dla wszystkich
pozostałych domen w strefie .pl
tworzenie subdomeny jest możliwe
nie poprzez, lecz w wyniku zawarcia takiej umowy, to znaczy możliwość utworzenia subdomeny będzie
posiadać abonent nazwy domeny,
dla której tworzona jest taka subdomena. Dla potrzeb niniejszego artykułu określenie subdomena będzie
używane dla oznaczania subdomen,
W praktyce abonenci tworzą subdomeny na własne potrzeby, np.
w celu tematycznego wyodrębnienia części serwisu prowadzonego w ramach stron internetowych
(np. sklep.uvwxyz.pl) lub umożliwiają takie tworzenie innym
podmiotom dla różnych celów
(np. nazwisko.uvwxyz.pl, miejsc
owość.region.uvwxyz.pl). W tym
drugim wypadku umożliwianie tworzenia subdomeny może odbywać
się nieodpłatnie (np. w serwisach
społecznościowych) albo odpłatnie.
Abonenci nazw domen coraz częściej oferują możliwość sprzedaży
subdomeny, wskazując na możliwość utworzenia i korzystania z
subdomeny w domenie, która jest
utrzymywana na ich rzecz przez
NASK. Warto zastanowić się, czy w
wypadku tak nazwanego stosunku
prawnego można odwoływać się do
przepisów dotyczących sprzedaży.
Stosownie do treści art. 535 ustawy
z dnia 23 kwietnia 1964 r. kodeks
cywilny (Dz. U. nr 16, poz. 63) przez
umowę sprzedaży sprzedawca zobowiązuje się przenieść na kupującego
własność rzeczy i wydać mu rzecz,
Mnogość informacji
dostępnych w Internecie
wymaga intuicyjnego
poruszania się w obrębie
jego zasobów
i porządkowania danych
zawartych na stronach
www. Jest to możliwe
dzięki hierarchii domen
internetowych.
B I U L E T Y N NASK
19
Korzyści i zagrożenia
a kupujący zobowiązuje się rzecz
odebrać i zapłacić sprzedawcy cenę.
Jako rzecz należy rozumieć, zgodnie
z art. 45 kodeksu cywilnego, jedynie
przedmiot materialny. Nie ma wątpliwości, że subdomena, podobnie
jak domena, nie jest przedmiotem
materialnym, a zatem nie jest rzeczą.
Konieczne w tym momencie wydaje się wskazanie, że abonent rejestrując nazwę domeny .pl, nabywa względne (skuteczne jedynie
wobec NASK), wynikające z umowy
prawa do żądania utrzymywania nazwy domeny i w związku z
tym uzyskuje możliwość faktycznej wyłączności korzystania z tak
zarejestrowanej nazwy domeny, co
wynika bezpośrednio z uwarunkowań technicznych sieci Internet. W
ten sposób abonent nazwy domeny
uzyskuje jednocześnie możliwość
decydowania o tym, czy zostaną
utworzone subdomeny. Mamy tu do
czynienia z możliwością tworzenia
pewnego stanu faktycznego związanego z technicznymi uwarunkowaniami sieci Internet. Należy przy
tym zaznaczyć, że abonent będzie
posiadał możliwość zapewnienia
wskazanego powyżej stanu, o ile (i
dopóki) będzie uprawniony do żądania utrzymywania zarejestrowanej w
NASK nazwy domeny.
Oznaczenie nazwy domeny
Próbując określić charakter prawny umowy zawieranej przez abonenta nazwy domeny z innym
podmiotem w celu utworzenia i
utrzymywania subdomeny, należy wskazać, iż abonent powinien
zapewnić w takiej sytuacji umożliwienie użytkownikom Internetu
korzystanie z określonych przez taki
20
B I U L E T Y N NASK
podmiot danych niezbędnych do
komunikacji w Internecie i zamieszczonych w pamięci odpowiedniego urządzenia przeznaczonego do
tego celu. Zapytania pochodzące od
użytkowników Internetu powinny
być zatem kierowane przez takie
urządzenie zgodnie z treścią danych,
które poda osoba umawiająca się w
tym zakresie z abonentem. Wydaje
się zatem, że w wypadku zawarcia takiej umowy jej przedmiotem
byłoby świadczenie usług przez
abonenta, przy czym możliwość ich
świadczenia jest ściśle związana z
obowiązywaniem umowy z NASK o
utrzymywanie nazwy domeny, dla
której ma być tworzona subdomena.
Zakończenie utrzymywania takiej
nazwy domeny przez NASK oznacza
brak faktycznej możliwości tworzenia i utrzymywania subdomen dla
danej nazwy domeny.
Kwestie sporne
W nawiązaniu do powyższego należy
stwierdzić, że tworzenie subdomen
może nieść ze sobą także skutek
inny niż wyłącznie porządkowanie
informacji dostępnych za pomocą
sieci Internet. Z jednej strony istnienie subdomeny jest uzależnione od
istnienia domeny macierzystej i podmiot, dla którego abonent utrzymuje
subdomenę, jest uzależniony od np.
terminowości dokonywania przez
tego abonenta opłat z tytułu utrzymywania nazwy domeny, a z drugiej
strony abonent umożliwiając innemu
podmiotowi korzystanie z subdomeny, może narazić się np. na problemy
związane z kwestiami naruszenia
przez ten podmiot praw osób trzecich (chociażby kwestia naruszenia
praw do znaku towarowego użytego
w treści subdomeny). Warto w tym
kontekście wspomnieć także o subdomenie „www”. Przy wskazywaniu
nazwy domeny dodanie przedrostka
„www” przed nazwą domeny,
np. „www.uvwxyz.pl”, oznaczać
będzie, iż wskazana została subdomena „www” w nazwie domeny
„uvwxyz.pl”. Nie bez znaczenia jest
fakt, że pod adresem domenowym
„www.uvwxyz.pl” może znajdować
się zupełnie inna strona internetowa niż pod adresem „uvwxyz.pl”.
Błędne oznaczenie nazwy domeny
może mieć daleko idące konsekwencje, chociażby w wypadku sporu
dotyczącego nazwy takiej domeny.
W Internecie przepływ danych jest
niezwykle szybki i odległość geograficzna nie ma istotnego znaczenia podczas szukania informacji.
Tworzenie subdomeny może wpływać na możliwość indywidualnego
zaprezentowania się czy też bardziej
intuicyjnego poruszania się w globalnej sieci, jednakże trzeba pamiętać, że jednocześnie wzrasta poziom
komplikacji samych adresów internetowych. Tym bardziej, że subdomena może stać się domeną dla
kolejnej subdomeny, a ta z kolei dla
kolejnej subdomeny itd., tworząc w
danych okolicznościach złożony system – także stosunków prawnych.
Autor reprezentuje Dział Prawny NASK
Kryteria w yboru systemu
DOMEN Y
ALEKSANDER TROFIMOWICZ
Wirtualizacja
w Dziale Domen
W ubiegłym roku stało się jasne, że z
powodu planowanych zmian w modelu obsługi partnerów biznesowych
NASK w zakresie rejestracji domen,
w szczególności wprowadzenia systemu przedpłat, liczba maszyn musi
wzrosnąć o kolejne, potrzebne do
testowania nowych funkcjonalności.
Przewidywana skala zmian w systemie rejestracji domen była na tyle
duża, że pozostawienie testowania
oprogramowania tylko w rękach
programistów uznano za niewystarczające. Zaistniała również potrzeba rozszerzenia badań dotyczących
kondycji DNS dla polskiej strefy,
które wymagały alokacji pewnych
zasobów IT. Ponadto systemy o drugorzędnym znaczeniu dla Działu
Domen funkcjonowały na maszynach, które w najbliższych latach
wymagałyby wymiany.
Reasumując, wszystkie przedstawione maszyny mają wspólną cechę:
ich zapotrzebowanie na zasoby
sprzętowe ma charakter nieregularny, by nie napisać pikowy. Z tego
względu zapadła decyzja, aby funkcjonowały one w środowisku zwirtualizowanym.
System docelowy musiał spełnić
określone wymagania. Po pierwsze
miał zapewnić sprzętową, pełną
wirtualizację (dotyczy CPU) linuksowych guestów w architekturze
x86. Po drugie miał być łatwy w
zarządzaniu. Po trzecie – z uwagi
na to, że system ten miał być pierwszym wdrożeniem tego typu w
Dziale Domen – musiał być w miarę
otwarty, by móc w razie konieczności migrować na inną technologię,
jeśli okazałoby się, że oczekiwania
w stosunku do niego nie zostały spełnione. Ostatnim kryterium
przy wyborze był potencjał rozwoju
zastosowanych w systemie technologii. To istotne, gdyż wdrożenie
tego systemu należy wpisać w kontekst długofalowej strategii migracji
systemów podlegających Działowi
Domen do środowiska wirtualnego.
Wybór technologii wirtualizacyjnej
Po analizie potrzebnej mocy obliczeniowej ustalono, że bazą sprzętową będą dwie jednostki z ośmioma
logicznymi procesorami każda oraz
z dostępem, przez FibreChannel,
do współdzielonego zasobu dyskowego obsługiwanego przez istniejącą już w firmie macierz. Na
W Dziale Domen NASK
od kilku miesięcy
działa system bazujący
na technologii
wirtualizacyjnej KVM.
Autor artykułu opisuje
przyczyny zastosowania
tego rozwiązania.
Szczególną uwagę
poświęca kryteriom wyboru
technologii spełniającej
wymagania określone
przez Zespół Obsługi
Technicznej Domen.
B I U L E T Y N NASK
21
Charakterystyka libvirta
czas podjęcia decyzji w grę wchodziły rozwiązania oparte na ESX,
libvirt lub Hyper-V. Z powodów
praktycznych już na wstępie została odrzucona koncepcja budowania
systemu wokół Hyper-V, gdyż czas
i koszt potrzebny na przeszkolenie
personelu technicznego (zasadniczo
wszystkie systemy Działu Domen
to systemy Linux/UNIX) minimalizowałby jakikolwiek zysk z zastosowania produktu Microsoft. Co ważniejsze, Hyper-V nie oferuje niczego,
czego nie ma konkurencja. W wielu
aspektach technicznych wręcz jej
ustępuje (np. brak overcommitu na
pamięć operacyjną, kiepska obsługa
guestów linuksowych – dopiero w
lipcu ub.r. Microsoft podesłał patche sterowników urządzeń I/O do
włączenia do jądra Linuksa, jednak
ich status nadal jest niepewny [1]).
Skonfrontowano zatem dwa systemy koncepcyjnie do siebie zbliżone,
bo reprezentujące klaster wirtualizacyjny: jeden będący kompleksowym, zamkniętym rozwiązaniem
VMware’owym, drugi oparty na systemie Linux z oprogramowaniem
zarządzającym dostępem do zasobów dzielonych oraz na libvircie.
najmniej rozpoznawalny, to właśnie
Zarządzanie monitorami
temu i jego chłodzenie). Jednak
Czym dokładnie jest libvirt?
Zasadniczo jest to biblioteka C oferująca ujednolicone API do zdalnego,
jak i lokalnego zarządzania monitorami oraz kilkoma innymi emulatorami i kontenerami. Zazwyczaj jest
dystrybuowana razem z oprogramowaniem serwera, klientem CLI oraz
dowiązaniami do Pythona. Libvirt
potrafi zarządzać trzema monitorami: Xen, VirtualBox oraz Kernelbased Virtual Machine (KVM).
Choć z tych trzech KVM wydaje się
22
B I U L E T Y N NASK
on został wybrany do testów wydajnościowych. Powodów było kilka.
Jako jedyne rozwiązanie wirtualizacyjne od kilku lat funkcjonuje w mainline jądra Linuksa, co
ma kapitalne znaczenie dla procesu zarządzania aktualizacjami.
Nie da się tego samego napisać
ani o Xenie, ani o VirtualBoksie.
Los tego ostatniego zresztą stoi
pod znakiem zapytania od wiosny
ub.r., kiedy to Oracle zdecydował się na przejęcie Suna. Trzeba
bowiem wiedzieć, iż VirtualBox jest
produktem Suna, a Oracle już ma
w swojej ofercie rozwiązanie dla
wirtualizacji o nazwie Oracle VM,
które zasadniczo bazuje na ładnie
opakowanym Xenie.
Jest jeszcze kilka pomniejszych mankamentów zarówno w VirtualBoksie
(np. obsługa SMP dla guestów
funkcjonuje dopiero od lipca ub.r.),
jak i w Xenie (brak obsługi ACPI,
a więc nie ma mowy o jakichkolwiek oszczędnościach związanych
z poborem energii na prace syselementem kluczowym wydaje się
to, że wszystkie trzy rozwiązania
do emulacji urządzeń I/O wykorzystują kod projektu QEMU, a od
marca ub.r. kod userspace projektu
KVM jest jego integralną częścią.
W przypadku Xena i VirtualBoksa
ma to swoje konsekwencje w postaci
albo wyższych kosztów rozwijania
produktu – ktoś musi backportować
zmiany w kodzie – albo zmniejszenia tempa wprowadzania nowych
funkcjonalności.
Wyniki testów
W testach platform wirtualizacyjnych VMware’a oraz linuksowej
zwrócono dużą uwagę na wydajność
I/O, gdyż właśnie tego typu operacje stanowią wąskie gardło środowisk wirtualizacyjnych. W ramach
testów badano prędkość transmisji
TCP i UDP pomiędzy guestami
rozlokowanymi na dwóch różnych
maszynach hostujących. Wyniki
były porównywalne i w zupełności satysfakcjonujące (wysycenie
łącza 1GE w 50-70 proc. dla TCP,
dla UDP w 10-20 proc.). Testy
operacji zapisu i odczytu dysków
w maszynach wirtualnych również
nie były rozstrzygające (KVM:
przy 2Gb łączu FC odczyt z włączonym cache – 2500MB/s, zapis
– 100MB/s; VMware miał słabsze
wyniki odczytu). Produkt VMware
wyróżniał się dopracowaniem.
Prócz jednego narzędzia do migracji maszyn linuksowych do środowiska zwirtualizowanego (w ogóle
nie spełniał swojej funkcji) wszystko zadziałało bezproblemowo.
Jednakże wymagane licencje produktów VMware kosztowałyby
około 20 tys. USD. Przy dalszej
rozbudowie klastra cena mogłaby
okazać się problematyczna.
Z kolei rozwiązanie bazujące na
KVM jest bardzo elastyczne i oferuje
możliwości, które nieprędko pojawią
się u konkurencji. Są to m.in. możliwość dedykowania guestom urządzeń PCI hosta (interesująca jest
obsługa projektów DNSSEC-owych
przez guesty mające do dyspozycji
karty kryptograficzne), wdrożenia
rygorystycznej polityki bezpieczeństwa na bazie SELinuksa poprzez
Budowa klastra
definiowanie odrębnych domen dla
każdego hosta bądź też zarządzanie
zasobami w ramach mechanizmów
cgroups [2].
Również KVM ma swoje niedogodności. Wynikają one jednak z tego,
że zarówno ten projekt opensource’owy, jak i projekt libvirt dynamicznie się rozwijają (np. w czasie
testów nie można było przeprowadzić migracji live przy pomocy
libvirta). Niemniej jednak nie ulega
wątpliwości, że usterki z czasem
zostaną usunięte. Mając na uwadze fakt, że w swojej podstawowej
funkcjonalności obydwie konfiguracje klastra niczym się nie różniły, a rozwiązanie oparte na KVM
prezentuje największy potencjał do
dalszego rozwoju, to właśnie ono
zostało wybrane.
Konfiguracja systemu
Jak już wcześniej wspomniano, na
klaster składają się dwa serwery.
Zarówno zasoby dyskowe hostów
(bootowanie po FC), jak i guestów
znajdują się na macierzy. Dla
zwiększania niezawodności systemu dostęp do niej realizowany jest
przez dwie niezależne ścieżki FC
z każdego serwera, a same dane
macierzowe przechowywane są w
dwóch oddalonych o kilkanaście
kilometrów miejscach.
Obrazy dysków guestów znajdują
się na zasobie dzielonym kontrolowanym przez Clustered Logical
Volume Manager, który wchodzi w
skład Red Hat Cluster Suite. Jako że
każdy dysk guesta reprezentowany
jest przez jeden logiczny wolumen,
zarządzanie nimi jest bardzo łatwe i
odbywa się z poziomu systemu ope-
racyjnego hosta. Prowadzone były
również próby z systemem GFS2.
Zaletą tego systemu plików jest
to, że obsługuje pliki typu sparse,
co pozwoliłoby na efektywniejszą
gospodarkę przestrzenią dyskową.
Niestety, w trakcie testów okazało
się, że wydajność I/O takiego systemu plików jest niewystarczająca.
Ruch sieciowy do każdego serwera
doprowadzony jest łączem trunkowym. Na każdym hoście skonfigurowano mostki programowe dla
każdego VLAN-u, z którego korzysta bądź host, bądź którykolwiek
z guestów. Taka konstrukcja sieci
pozwoliła na wprowadzenie kontroli
ruchu zarówno wchodzącego, jak i
wychodzącego na poziomie hosta,
wykorzystując tzw. bridge firewall.
Reguły dostępu są wspólne dla
wszystkich serwerów znajdujących
się w klastrze, co znacząco ułatwia
administrowanie.
Zarządzanie guestami odbywa się
przy pomocy libvirta. Zdalny dostęp
realizowany jest z wykorzystaniem
protokołu TLS. Autoryzacja odbywa się na podstawie certyfikatów
X.509. Dostęp do (graficznej) konsoli wirtualnej maszyny realizowany
jest przez serwer VNC (w ramach
protokołu TLS, z wykorzystaniem
certyfikatów X.509 do autoryzacji).
W chwili obecnej polityka backupowa maszyn wirtualnych jest prowadzona z poziomu systemów operacyjnych tych maszyn. W momencie,
gdy LVM w wersji klastrowej zostanie wzbogacony o możliwość tworzenia snapshotów wolumenowych,
możliwy będzie backup guestów
z poziomu systemu operacyjnego
hosta.
Perspektywy
Na początku września 2009 r. Red
Hat przedstawił wersję 5.4 swojego flagowego produktu Red Hat
Enterprise Linux. Jest ona o tyle
znacząca, że KVM stał się integralną
częścią tej dystrybucji i jest
pierwszym etapem migracji z Xena
na KVM [3]. O tym, że KVM ma
się dobrze, nie świadczą deklaracje
działu PR Red Hata, lecz wysoka
aktywność na listach dyskusyjnych
deweloperów
reprezentujących
najbardziej
znaczące
firmy
działające na rynku linuksowym, a
także kolejne ciekawe pomysły na
poprawę wydajności KVM. Wśród
nich bardzo obiecująco wygląda projekt AlacrityVM [4].
Klaster wirtualizacyjny w Dziale
Domen NASK spełnia swoje
zadanie. Uzyskano konsolidację na
poziomie 4:1, znalazło się także
miejsce dla kolejnych maszyn
wirtualnych. W tym w zasadzie
pilotażowym projekcie uniknięto
nadmiernych kosztów, a zarazem
uzyskano elastyczną architekturę.
To dobra informacja na przyszłość.
Literatura
[1]
http://groups.google.com/group/
fa.linux.kernel/browse_thread/thread/65
82a78df3cf6291/96a3fd9cba577aec?hl=e
n&lnk=gst&q=Hyper+V#96a3fd9cba5
77aec
[2] http://lxr.linux.no/#linux+v2.6.31/
Documentation/cgroups/
[3]
http://www.redhat.com/promo /
qumranet/
[4] http://developer.novell.com/wiki/
index.php/AlacrityVM
Autor pracuje w Dziale Domen NASK
B I U L E T Y N NASK
23
IN T ERNE T
ADAM BERGER
Filmy w technologii Flash
TOMASZ DYCZKO
Streaming
wideo w Polska.pl
W portalu Polska.pl
zostało zastosowane
oprogramowanie
prezentujące materiały
wideo w technologii,
która stała się standardem.
Wybrano Flash Media
S
erwis wideo w portalu Polska.pl
(wideo.polska.pl) istnieje od
listopada 2007 roku. Windows
Media Player – początkowo zbudowany w oparciu o odtwarzacz –
został zmodyfikowany w październiku 2009 roku i obecnie oferuje
filmy w technologii Flash. W związku ze wzrastającą liczbą odwiedzających serwis zdecydowaliśmy się
na zmianę technologii streamingu.
Windows Media Player. Statystyki
wskazują, że wzrasta liczba naszych
użytkowników korzystających z
Linuksa (i nie tylko), którzy – niestety – przy standardowych ustawieniach nie mogli odtworzyć materiału wideo. Oczywiście istnieją
możliwości odtwarzania w Linuksie,
jednak wymaga to pewnego nakładu pracy po stronie użytkownika
w zależności od posiadanej przez
Interactive Server.
Rys. 1. Widok odtwarzania
Dotychczasowe rozwiązania pozwalały cieszyć się prezentowanymi
materiałami użytkownikom korzystającym z systemu operacyjnego
MS Windows, który domyślnie
zaopatrzony jest w odtwarzacz
24
B I U L E T Y N NASK
niego dystrybucji. Dlatego postanowiliśmy wdrożyć oprogramowanie, które pozwala nam prezentować materiały wideo w technologii,
która stała się standardem. Wybór
padł na Flash Media Interactive
Funkcje oprogramowania
Server. Za pomocą tego oprogramowania – dzięki technologii Flash
– pozbywamy się w dużej mierze
wyżej opisanego problemu. Jedyny
wymóg, jaki stawiany jest użytkownikowi, to posiadanie klienta Flash.
W odróżnieniu od innych oprogramowań FMS (Flash Media Server)
oferuje nowy protokół transmi-
strumieniowe transmisje wideo
HD/H.264 w czasie rzeczywistym,
dostarczanie wideo na urządzenia przenośne z oprogramowaniem
Flash Lite 3,
wykrywanie przepustowości,
publikowanie wielopunktowe,
obsługa przekierowań serwera,
dostęp do danych strumieniowych.
sji RTMP (Real Time Messaging
timedialne na żądanie. Oznacza to,
że nie będzie niepotrzebnie zużywał swojego oraz naszego łącza,
oczekując na załadowanie całości
filmu. Zużyje łącze tylko na oglądaną przez siebie część serwowanego
materiału. Jest to bardzo przydatne w przypadku, gdy odwiedzający
dysponuje łączem z limitem transmisji danych lub korzysta z sieci
GSM
Protocol). Jest to protokół stworzony przez firmę Adobe do stosowania streamingu wideo, audio i
innych danych pomiędzy odtwarzaczem a serwerem. Różnice między
innymi protokołami przeznaczonymi do streamingu są zasadnicze.
Niegdyś uważany za standard, protokół RTSP (Real Time Streaming
Protocol), jest domyślnym protokołem dla streamingu mediów windowsowych, jest także wykorzystywany do serwowania RealMedia/
RealVideo/RealAudio, QuickTime
(.mov, .mp4, .sdp). Protokół MMS
jest zaś stosowany tylko i wyłącznie
do streamingu mediów windowsowych. Wykorzystując RTMP, jesteśmy w stanie transmitować pliki
flash w formacie .flv, .f4v, .swf, nie
martwiąc się o system operacyjny
odbiorcy.
Najważniejsze funkcje oprogramowania:
dynamiczne transmisje strumieniowe,
skalowalność,
łatwiejsza implementacja,
bezpieczniejsze dostarczanie
zawartości,
niezawodne protokoły dostarczania,
wideo H.264 i audio HE-AAC,
Rys. 2. Panel administracyjny Flash Media Interactive
Server
Podsumowując – Media Interactive
Server to unikalne połączenie
wydajnych strumieniowych transmisji wideo i elastycznego środowiska tworzenia oraz dostarczania
interaktywnych aplikacji multimedialnych do obsługi społeczności,
przeznaczone dla możliwie szerokiego kręgu odbiorców.
Zarządzanie konsolą
administracyjną
Wideo na żądanie
Dzięki FMS zyskujemy na wydajności. Oprogramowanie jest w stanie
przyjąć praktycznie nieograniczoną
liczbę gości, zużywając przy tym
bardzo małą ilość zasobów procesora oraz pamięci fizycznej, co możemy zaobserwować na wykresach
(rys. 2).
Dzięki technologii VoD (Video on
Demand) użytkownik nie musi czekać na załadowanie całego materiału wideo, aby przewinąć film do
wybranego przez siebie miejsca.
Wczytuje wybrane materiały mul-
Zarządzanie
oprogramowaniem
odbywa się za pomocą intuicyjnego panelu administracyjnego
dostępnego z poziomu przeglądarki internetowej. Jest to możliwe
B I U L E T Y N NASK
25
Dane techniczne
dzięki wbudowanemu w oprogramowanie serwerowi www – apache2.
Do funkcjonalności panelu administracyjnego należy:
przegląd statystyk wydajności
komputera, na którym są uruchomione aplikacje,
informacje na temat połączenia z
serwerem,
informacje na temat aplikacji
znajdujących się na serwerze lub
hostów wirtualnych,
przegląd licencji serwera,
przegląd dziennika dostępu oraz
logów serwera,
informacje na temat bieżącego
streakingu,
informacje o udostępnionych
obiektach.
Kodowanie
Wygenerowane z programu do montażu nieliniowego (Ulead Media
Studio Pro 8 lub Adobe Premiere
CS4) pliki (zazwyczaj w postaci
AVI DV-PAL lub też pliki projektu
programu AP) trafiają do Media
Encodera, który konwertuje je do
postaci prezentowanej użytkownikowi.
Umieszczane na serwerach zakodowane pliki mogą mieć format FLV
lub F4V.
FLV zawierają dane dźwiękowe
oraz wideo zakodowane przy użyciu kodeków wideo On2 VP6 lub
Sorenson Spark z kodekiem dźwiękowym MP3,
F4V zawierają dane wideo zakodowane przy użyciu kodeka H.264
i dane dźwiękowe zakodowane przy
użyciu kodeka AAC.
26
B I U L E T Y N NASK
Rys. 3. Poglądowy rysunek obrazu wyświetlanego z
przeplotem (A) i bez przeplotu (B)
Z przeplotem czy bez?
Przeplot to nic innego jak technika naprzemiennego wyświetlania parzystych i nieparzystych linii
obrazu (rys. 3). W jednym przebiegu, trwającym 1/50 sekundy, zostają
wyświetlone poziome linie parzyste,
a w kolejnym, trwającym także 1/50
sekundy – nieparzyste linie obrazu.
Standard telewizyjny PAL (rejestrowany przez nasze kamery) zapisuje
obraz z prędkością 25 klatek, czyli
50 półobrazów na sekundę.
W praktyce przeplot wykorzystuje się w obrazach emitowanych na
ekranie telewizora bądź przy tworzeniu płyty DVD. Do streamingu
w Internecie nie ma potrzeby ograniczania pasma i dzielenia klatki
na półobrazy. Klatka jest przesyłana w całości, co sprowadza się
do połączenia dwóch półobrazów w
jeden obraz trwający 1/50 sekundy.
W efekcie mamy 50 pełnych klatek wyświetlanych w ciągu sekundy.
Eliminacja przeplotu z materiału
dokonywana jest podczas kodowania projektu do postaci finalnej.
Odtwarzacz został wyposażony w
standardowe, a zarazem niezbędne
funkcje. Dodatkowo postanowiliśmy umożliwić użytkownikom oglądanie materiałów wideo w wyższej
jakości HQ (High Quality).
Prezentacja materiału wideo następuje w formacie 16:9 (wcześniejsze
filmy mają format 4:3). Materiał
zachowuje także niezmienne proporcje, poczynając od rejestracji na
taśmie filmowej, poprzez obróbkę,
na zakodowaniu kończąc.
Autorzy pracują w NASK
w Zespole Polska.pl
Modele zagrożeń aglomeracji
B A DA NI A
EWA NIEWIADOMSK A-SZYNKIEWICZ
ADAM KOZAKIEWICZ
Wspomaganie zarządzania kryzysowego
S
ytuacje
kryzysowe
destabilizujące społeczności mogą
być konsekwencją różnych zdarzeń,
takich jak katastrofy naturalne czy
techniczne powodowane zjawiskami przyrody i działalnością człowieka, działania militarne, akcje terrorystyczne i inne. W literaturze [1]
można znaleźć wiele definicji sytuacji kryzysowej i kryzysu będącego
jednym z elementów i punktem
przełomowym sytuacji kryzysowej. Społeczeństwa, wykorzystując
nowoczesne rozwiązania techniczne oraz potencjał intelektualny i
gospodarczy, próbują zabezpieczać
się przed wystąpieniem zagrożeń,
a w przypadku zaistnienia sytuacji
kryzysowej starają się pomniejszać
jej negatywne skutki.
ne problemy z podjęciem właściwej
Wraz z rozwojem technologii informatycznych coraz większą rolę w
opracowywaniu strategii działań
w sytuacji kryzysowej odgrywają
komputerowe systemy wspomagania decyzji DSS (Decision Support
Systems). Trudno wyobrazić sobie,
aby decyzje w sytuacjach zagrożeń
były podejmowane w sposób automatyczny. Z drugiej strony, decydent (człowiek) może mieć poważ-
nym systemie rzeczywistym oraz
decyzji, zważywszy, że prowadzi
działania operacyjne w trudnych
dla niego warunkach i ma do analizy oraz przetworzenia olbrzymi
zestaw informacji i danych pomiarowych napływających z zagrożonego obszaru. W takich przypadkach
bardzo ważne może być wsparcie
oferowane przez systemy DSS.
Do ich budowy wykorzystywane
są nowoczesne techniki modelowania, optymalizacji, sterowania
i symulacji oraz różne metodyki
tworzenia programów konwersacyjnych. Kluczowymi elementami
W artykule omawiamy
wyniki prac wykonanych
w ramach zakończonego
projektu badawczego
zatytułowanego „Modele
zagrożeń aglomeracji
miejskiej wraz z systemem
zarządzania kryzysowego
na przykładzie m.st.
Warszawy”.
systemów DSS są symulatory, tj.
programy komputerowe stanowiące
implementacje modeli opisujących
procesy przebiegające w rozważabazy danych pomiarowych, w tym
danych historycznych. Wspomniane
systemy informatyczne stanowią
nie tylko wsparcie dla decydenta
podczas działań antykryzysowych.
Mogą być również z powodzeniem
wykorzystywane do analizowania
różnych sytuacji, szkolenia personelu, prowadzenia gier wojennych i
weryfikowania obowiązujących lub
B I U L E T Y N NASK
27
Uczestnicy i beneficjent projektu
planowanych do wdrożenia procedur zarządzania kryzysowego.
System dla Warszawy
Sytuacje kryzysowe są szczególnie
groźne w miejscach występowania
dużych skupisk ludności, a więc w
aglomeracjach miejskich. Powstają
tu efekty synergii, które wpływają na gwałtowne obniżenie stanu
bezpieczeństwa mieszkańców i
infrastruktury miejskiej. Znacznie
trudniejsze jest również opracowanie poprawnych modeli opisujących szybkozmienne, powiązane
28
B I U L E T Y N NASK
Zapewnienie bezpieczeństwa obywatelom jest jednym z podstawowych
zadań państwa. Tradycyjnie bezpieczeństwo państwa oznaczało przede
wszystkim budowanie potencjału militarnego. Obecnie obejmuje ono nie
tylko działania wojskowe i polityczne, ale również wykorzystanie nowoczesnych technologii, w tym technik informacyjnych i możliwości
współczesnej nauki. Ważnym elementem działań ograniczających wpływ
zagrożeń na funkcjonowanie społeczeństw jest prowadzenie prac naukowo-badawczych, których celem jest analiza zjawisk powodujących wystąpienie
sytuacji kryzysowych oraz opracowanie sposobów ich powstrzymywania.
wzajemnie procesy i zjawiska, a tym
samym skonstruowanie symulatorów. W kraju i na świecie podejmo-
wane są liczne próby, których celem
jest przygotowanie odpowiednich
narzędzi wspierających akcje antykryzysowe w dużych miastach. Od
kilku lat pracownicy NASK biorą
aktywny udział w pracach poświęconych tej tematyce.
W czerwcu 2009 r. zakończył się
trzyletni projekt badawczy zamawiany przez MNiSW pt. „Modele
zagrożeń aglomeracji miejskiej wraz
z systemem zarządzania kryzysowego na przykładzie m.st. Warszawy”
(PBZ-MIN-011/013/2004). Projekt
był realizowany przez konsorcjum złożone z sześciu jednostek
prowadzących prace badawczo-rozwojowe, tj. Instytutu Energii
Atomowej
(IEA),
Instytutu
Meteorologii i Gospodarki Wodnej
(IMiGW), Instytutu Łączności
(IŁ), Naukowej i Akademickiej
Sieci Komputerowej (NASK),
Instytutu Organizacji i Zarządzania
w
Przemyśle
(ORGMASZ),
Wojskowego Instytutu Higieny
i Epidemiologii (WIHiE); czterech uczelni wyższych: Akademii
Obrony
Narodowej
(AON),
Politechniki Warszawskiej (PW),
Wojskowej Akademii Technicznej
(WAT), Szkoły Głównej Służby
Pożarniczej (SGSP) oraz firmy
Analiza procedur
ZESPÓŁ REAGOWANIA KRYZYSOWEGO
BD
zewnętrzne
MONITORING
Prezentacja wyników (2D i 3D)
Baza wiedzy
antykryzysowej
Wzorce sytuacji
kryzysowych i reguł
rozpoznawania
Ocena aktualnego stanu
bezpieczeństwa.
Prognozowanie
możliwości wystapienia zagrożeń
Baza danych o aktualnym stanie
elementów aglomeracji
Rozpoznanie sytuacji kryzysowej
Stan aglomeracji
Wypracowanie decyzji
Wzorce wariantów
działania
Połączenia dla elementów wykonawczych
Baza danych normatywnych
Symulatory rozwoju zagrożeń
Wzorce zasobów normatywy
Z rozgrywaniem wariantów symulacja rozwoju sytuacji
z uwzględnieniem decyzji lub bez
Rys. 1. Struktura systemu ISWZK
konsultingowej prowadzącej prace
badawczo-wdrożeniowe ITTI Sp.
z o.o. Funkcję instytucji wiodącej
i koordynatora pełniła WAT, a kierownikiem projektu był profesor
Andrzej Najgebauer.
Celem projektu było opracowanie i
wykonanie prototypu informatycznego systemu wspomagania zarządzania kryzysowego (ISWZK) dla
miasta stołecznego Warszawy.
conych modelowaniu zagrożeń dla
innych dużych aglomeracji miejskich oraz przy opracowaniu modeli
zagrożeń dla całego kraju. Mogą
one także stanowić element projektów realizowanych dla różnych
instytucji administracji publicznej,
takich jak Komenda Główna Policji,
Komenda Główna Straży Pożarnej,
Urząd Marszałkowski Województwa
Mazowieckiego.
Głównym beneficjentem był Urząd
m.st. Warszawy, a w szczególności
Centrum Zarządzania Kryzysowego.
Przewiduje się, że uzyskane rezultaty będą wykorzystane nie tylko
w Warszawie, ale również znajdą
zastosowanie w projektach poświę-
Prace badawcze prowadzone były w
dwóch obszarach. Pierwszy dotyczył
metod modelowania i prognozowania zagrożeń oraz procedur zarządzania kryzysowego w aglomeracji
warszawskiej. Rozważano następujące zagrożenia: powodziowe i
klęski żywiołowe, pożarowe, epidemiologiczne, chemiczne, radiacyjne,
systemu energetycznego, systemu
wodociągów i kanalizacji, sieci dystrybucji wody i sieci ciepłowniczej,
systemu transportowego, infrastruktury telekomunikacyjnej i teleinformatycznej, porządku publicznego,
militarne i terrorystyczne.
Rezultatem badań było opracowanie
katalogu zagrożeń ze zwróceniem
szczególnej uwagi na ich źródła,
skutki, a także metody zapobiegania wystąpieniom zagrożeń i sposoby ich likwidacji. Dokładnej analizie
poddano stosowane obecnie metody monitorowania i prognozowania.
Zaproponowano modyfikacje istnieB I U L E T Y N NASK
29
Zagrożenia sieci teleinformatycznej
Obszar objęty
pośrednim zagrożeniem
teleinformatycznym
Rys. 2. Symulacja skutków zagrożenia teleinformatycznego
jących rozwiązań w celu poprawienia ich skuteczności oraz opracowano nowe podejścia. Dokonano
przeglądu dostępnych modeli zagrożeń oraz ich komputerowej implementacji, przedstawiono propozycje
nowych rozwiązań. Następnie skoncentrowano się na analizie obowiązujących obecnie procedur zarządzania kryzysowego. Szczególną
uwagę zwrócono na identyfikację
słabych punktów procedur oraz
istotnych braków, jak również na
wskazanie obszarów, dla których
jeszcze takie procedury nie zostały
przygotowane. Przedstawiono również propozycje metod wspomagania decydenta przy wykorzystaniu
nowoczesnych technologii informatycznych oraz określono zakresy
danych niezbędnych do realizacji
procedur zarządzania.
30
B I U L E T Y N NASK
W ramach drugiego etapu prowadzono prace projektowe i implementacyjne, których celem było
wykonanie prototypu systemu do
wspomagania zarządzania kryzysowego ISWZK. Ogólną strukturę systemu prezentuje rysunek 1.
Opracowano referencyjną architekturę systemu i wzorce projektowe
interfejsów operatora, usługi udostępniania i obrazowania danych
z wykorzystaniem systemów GIS
oraz zaproponowano architekturę podsystemu łączności w zarządzaniu kryzysowym. Wykonano i
zweryfikowano symulatory implementujące modele rozważanych w
projekcie zagrożeń, przygotowano
bazy danych. Prace wykonane w
ramach projektu podsumowano w
monografii pt. „Modele zagrożeń
aglomeracji miejskiej wraz z systemem zarządzania kryzysowego
na przykładzie miasta stołecznego
Warszawy” wydanej przez WAT [2].
Badania prowadzone przez pracowników NASK dotyczyły zagrożeń
dla infrastruktury teleinformatycznej oraz zagrożeń powodziowych
wywołanych wezbraniami Wisły.
Zagrożenia infrastruktury
teleinformatycznej
Infrastruktura telekomunikacyjna i
teleinformatyczna stanowi obecnie
istotny element działania aglomeracji [3]. Można oczekiwać, że już
w nieodległej przyszłości będzie to
infrastruktura krytyczna. Zadanie
kierowane i realizowane przez
zespół z NASK dotyczyło właśnie
zagrożeń sieci teleinformatycznej.
W ramach projektu opracowana
została wstępna koncepcja symulatora zagrożeń wewnętrznych (bez-
Minimalizowanie strat
pośrednich) oraz skutków zagrożeń
wewnętrznych i zewnętrznych dla
infrastruktury telekomunikacyjnej
i teleinformatycznej aglomeracji.
Wskazuje ona na możliwości, jakie
powinien oferować symulator oraz
wyjaśnia zasady współpracy z pozostałymi modułami systemu ISWZK.
Przedstawiona specyfikacja obejmuje główne założenia, wymagania
funkcjonalne i niefunkcjonalne oraz
kluczowe scenariusze, które powinny być realizowane przez symulator.
Zaproponowano również architekturę symulatora oraz technologie
informatyczne do jego realizacji.
Przykładową symulację skutków
zagrożenia sieci teleinformatycznej
prezentuje rysunek 2.
W przypadku powodzi
NASK był również jednym z wykonawców zadania koordynowanego
przez Politechnikę Warszawską,
a poświęconego zagrożeniom
Warszawy wywołanym wezbraniami Wisły. W ramach wykonanych
prac zidentyfikowano zagrożenia
powodziowe, wskazano na przyczyny i skutki powodzi, dokonano
oceny istniejącego systemu osłony
hydrologicznej oraz przeanalizowano i oceniono metody operacyjnego
prognozowania przejścia fali powo-
dziowej Wisłą w rejonie Warszawy.
Przeanalizowano konkretne zdarzenia w ujęciu historycznym [4],
przywołując archiwalne dane i
opisy powodzi. Scharakteryzowane
zostały następstwa zalania wodą
wiślaną różnych rodzajów obiektów
zabudowy i infrastruktury technicznej znajdującej się na terenach
zalewowych w obrębie Warszawy.
Wskazano na ogromne niebezpieczeństwo związane z ewentualną
awarią wałów. Przedstawiono uwarunkowania prawne oraz współczesne poglądy na problematykę ochrony przeciwpowodziowej. Omawiając
metody zapobiegania i minimalizowania strat, zwrócono szczególną
uwagę na operacyjny monitoring,
prognozowanie zagrożeń i sprawny
system ostrzegania.
Głównym celem zadania było opracowanie projektu oraz komputerowa
realizacja systemu informatycznego
do monitorowania i prognozowania zagrożeń powodziowych zintegrowanego z systemem ISWZK.
Podstawowymi elementami systemu są symulatory przejścia fali przez
koryto i dolinę Wisły. Zakłada się,
że będzie on wspomagał Centrum
Zarządzania Kryzysowego przy
podejmowaniu decyzji dotyczących
ogłoszenia alarmu powodziowego,
ustalenia rozmiarów i lokalizacji
terenów zagrożonych, rozpoczęcia
ewakuacji mieszkańców, zabezpieczenia obiektów o szczególnym znaczeniu dla funkcjonowania miast
itp. Przewiduje się również jego
wykorzystanie do prowadzenia
analiz i monitorowania sytuacji w
obszarze aglomeracji miejskiej w
okresach, gdy nie ma zagrożenia
powodzią ze strony Wisły.
Literatura
[1]E.
Jendraszczak,
W.
Kozłowski,
Zarządzanie w sytuacjach kryzysowych,
Generic Crisis Management Handbook,
MON-DSO, Warszawa 1997.
[2]A. Najgebauer (red.), Modele zagrożeń
aglomeracji miejskiej wraz z systemem zarządzania kryzysowego na przykładzie miasta
stołecznego Warszawy, WAT, Warszawa
2009.
[3]M. Kaeo, Tworzenie bezpiecznych sieci,
Wydawnictow MIKOM (Cisco Press),
2001.
[4] B. Fal, P. Dąbrowski, Dwieście lat
obserwacji pomiarów hydrologicznych Wisły
w Warszawie, cz. 1 i 2, Gospodarka wodna,
Warszawa 2001.
Autorzy reprezentują
Pion Naukowy NASK
B I U L E T Y N NASK
Adres: ul. Wąwozowa 18, 02-796 Warszawa, tel. (22) 38 08 200, e-mail: [email protected]
Redakcja: Maria Baranowska. Współpraca: Anna Maj, Ernest Kacperski
Projekt okładki i przygotowanie do druku: Jarosław Olszewski
Redakcja zastrzega sobie prawo do skrótu i opracowania redakcyjnego otrzymanych tekstów.
B I U L E T Y N NASK
31