Wizyjne Systemy Sensoryczne Plik
Transkrypt
Wizyjne Systemy Sensoryczne Plik
(pieczęć wydziału) KARTA PRZEDMIOTU 1. Nazwa przedmiotu: WIZYJNE SYSTEMY SENSORYCZNE 2. Kod przedmiotu: 3. Karta przedmiotu ważna od roku akademickiego: 2012/2013 4. Forma kształcenia: studia drugiego stopnia 5. Forma studiów: studia stacjonarne 6. Kierunek studiów: AUTOMATYKA I ROBOTYKA; WYDZIAŁ AEiI 7. Profil studiów: ogólnoakademicki 8. Specjalność: Robotyka 9. Semestr: 2 10. Jednostka prowadząca przedmiot: Instytut Automatyki, RAu1 11. Prowadzący przedmiot: dr hab. inż., Prof. Pol. Śl. Henryk Palus 12. Przynależność do grupy przedmiotów: przedmioty specjalizacyjne 13. Status przedmiotu: obowiązkowy 14. Język prowadzenia zajęć: polski 15. Przedmioty wprowadzające oraz wymagania wstępne: Zakłada się, że przed rozpoczęciem studiowania niniejszego przedmiotu student posiada przygotowanie w zakresie podstaw robotyki, podstaw miernictwa, przetwarzania sygnałów i przetwarzania obrazów. 16. Cel przedmiotu: Celem przedmiotu jest zapoznanie studentów ze stanem techniki w dziedzinie wizyjnych systemów sensorycznych stosowanych w automatyce i robotyce. Słuchacze w wyniku realizacji przedmiotu powinni umieć zarówno zaprojektować system wizyjny dla konkretnego zastosowania, jak również skonstruować dla niego odpowiedni algorytm, zaimplementować go i przeprowadzić niezbędne testy. Te wyżej wymienione cele szczegółowe pomagają zrealizować ćwiczenia laboratoryjne prowadzone w ramach przedmiotu. 17. Efekty kształcenia: Nr W1 W2 W3 U1 U2 U3 K1 K2 Opis efektu kształcenia Metoda sprawdzenia efektu kształcenia Forma Odniesienie prowadzenia do efektów zajęć dla kierunku studiów Zna zadania i struktury wizyjnych systemów sensorycznych SP i ich elementy funkcjonalne. Zna podstawowe pojęcia dotyczące oświetlaczy, sensorów SP obrazowych, obiektywów i kamer np. równomierność oświetlenia, współczynnik wypełnienia, transmisja obiektywu, przepływność systemu. Ma wiedzę o podstawowych algorytmach wizyjnych. SP WM K_W17/2 WM K_W2/2 WM Potrafi skonfigurować system wizyjny dla potrzeb jego konkretnego zastosowania. Potrafi dobierać metody i konstruować podstawowe algorytmy wizyjne dla konkretnych zastosowań. Potrafi posługiwać się środowiskami programistycznymi (C++, OpenCV, Matlab itp.) do implementacji algorytmów wizyjnych. Potrafi samodzielnie podejmować decyzje dotyczące najlepszych rozwiązań algorytmicznych. CL, PS L CL, PS L CL, PS L K_W3/3; W4/2 K_U12/1; U23/1; U11/1 K_U23/2; U11/2 K_U9/2, U12/2; U13/1 CL, PS L Potrafi zaprezentować i obronić zaproponowane rozwiązanie algorytmiczno-programistyczne. CL, PS L 18. Formy zajęć dydaktycznych i ich wymiar (liczba godzin) W. : 45 L. : 30 K_K1/1; K2/1; K4/2; K6/1 K_K1/1; K5/1; K6/1 K7/1 19. Treści kształcenia: Wykład Pojęcia podstawowe: czujnik, sensor, przetwornik. System sensoryczny w strukturze robota przemysłowego. Analogia robot-człowiek. Klasyfikacja sensorów w robocie przemysłowym. Zadania pomiarowe systemów sensorycznych. Przegląd sensorów w robotyce. System widzenia u człowieka. Porównanie systemów widzenia człowieka i robota. Układy oświetleniowe (tradycyjne oświetlenie i LEDy). Oświetlacze pierścieniowe. Oświetlenie strukturalne. Projektory siatkowe i generatory linii. Przykłady nowoczesnych oświetlaczy. Kamera obscura, kamera otworkowa. Układy optyczne (obiektywy, filtry). Właściwości obiektywów (przysłona, powiększenie, winietowanie, głębia ostrości, zniekształcenia). Wybór obiektywu z nomogramu. Charakterystyki widmowe filtrów barwnych. Sensory obrazowe (liniowe i matrycowe, CCD i CMOS). Architektury sensorów CCD. Koło filtracyjne. Filtry mozaikowe (filtr Bayera). Mikrosoczewki. Współczynnik wypełnienia dla sensorów CMOS. Porównanie: CCD - CMOS. Foveon: trójwarstwowy CMOS. Kamery monochromatyczne i kolorowe. Systemy wielokamerowe. Szybkie kamery (fps). Smart kamery i ich oprogramowanie. Kamery internetowe. Kamery 3CCD. Kamery wielospektralne. Charakterystyki widmowe kamery kolorowej. Kamery specjalne (kamera pigułkowa, kamera HDR). Akwizycja obrazu: szum i ISO. Artefakty interpolacji (demozaikowanie). Elementy techniki telewizyjnej. Interfejsy wizyjne (framegrabbery, IEEE 1394, USB, CameraLink, Ethernet etc.). Procesory obrazu. Tablice pośrednie (LUT) i ich zastosowanie w przetwarzaniu obrazów. Ludzki układ wzrokowy: receptory. Widmowe charakterystyki czopków. Barwy przeciwstawne. Nieprawidłowe widzenie barw: testy Ishihary. Metameryzm. Sensory barwy. Barwa i przestrzenie barw. Dyskretna struktura sześcianu RGB. Kolorymetryczne i telewizyjne przestrzenie barw. System Munsella. Proste przetwarzanie obrazu barwnych (zamiana barw i negacja obrazu). Kwantyzacja obrazów barwnych (metody podziałowe i klasteryzacyjne). Problem pustych klastrów. Kalibracja barwnych systemów wizyjnych. Obrazy binarne. Kodowanie obrazów binarnych. Definicje spójności (sąsiedztwo 4i 8-spójne). Cyfrowe przetwarzanie obrazów: operatory punktowe, lokalne i globalne. Podstawy morfologii matematycznej dla obrazów binarnych. Segmentacja obrazu. Progowanie obrazu. Techniki segmentacji: obszarowe i krawędziowe. Cechy opisujące obszary: momenty geometryczne, współczynniki kształtu, charakterystyki topologiczne. Rozpoznawanie obiektów. Rozpoznawanie z wykorzystaniem modeli obiektów. Przegląd zastosowań wizyjnych systemów sensorycznych w automatyce i robotyce. Systemy uniwersalne i specjalizowane. Zajęcia laboratoryjne 1. Właściwości podstawowych operacji morfologicznych 2. Kodowanie obrazów binarnych i obrazów z poziomami szarości 3. Wyznaczanie rozmiaru obiektów 2D 4. Opis kształtu obiektów 2D (segmenty kołowe, wektor promieni) 5. Opis obiektów 2D z otworami 6. Liczba Eulera dla obrazu binarnego 7. Rozpoznawanie obiektów 2D z wykorzystaniem bazy modeli 8. Wyznaczanie liczby barw w obrazie 9. Progowanie obrazów barwnych 10. Segmentacja obrazów przy pomocy techniki k-means 11. Segmentacja obszarowa obrazów barwnych 12. Wizyjna kontrola jakości puszek 20. Egzamin: tak, pisemny. 21. Literatura podstawowa: 1. Tadeusiewicz R.: Systemy wizyjne robotów przemysłowych, WNT, Warszawa 1992. 2. Tadeusiewicz R., Korohoda P.: Komputerowa analiza i przetwarzanie obrazów, FPT, Kraków 1997. 3. Malina W., Śmiatacz M.: Cyfrowe przetwarzanie obrazów, Akademicka Oficyna Wydawnicza EXIT, Warszawa 2008. 22. Literatura uzupełniająca: 1. Watkins C.D., Sadun A., Marenka S.: Nowoczesne metody przetwarzania obrazu, WNT, Warszawa 1995 2. Woźnicki J.: Podstawowe techniki przetwarzania obrazu, WKiŁ, Warszawa 1996 23. Nakład pracy studenta potrzebny do osiągnięcia efektów kształcenia Lp. Forma zajęć 1 Wykład 2 Ćwiczenia 3 Laboratorium 4 Projekt 0/0 5 Seminarium 0/0 Liczba godzin kontaktowych / pracy studenta 45/30 0/0 30/55 6 Inne Suma godzin 5/15 80/100 24. Suma wszystkich godzin: 180 25. Liczba punktów ECTS: 6 26. Liczba punktów ECTS uzyskanych na zajęciach z bezpośrednim udziałem nauczyciela akademickiego: 3 27. Liczba punktów ECTS uzyskanych na zajęciach o charakterze praktycznym (laboratoria, projekty): 3 26. Uwagi: Zatwierdzono: ……………………………. ………………………………………………… (data i podpis prowadzącego) (data i podpis dyrektora instytutu/kierownika katedry/ Dyrektora Kolegium Języków Obcych/kierownika lub dyrektora jednostki międzywydziałowej)