Wizyjne Systemy Sensoryczne Plik

Transkrypt

Wizyjne Systemy Sensoryczne Plik
(pieczęć wydziału)
KARTA PRZEDMIOTU
1. Nazwa przedmiotu: WIZYJNE SYSTEMY SENSORYCZNE
2. Kod przedmiotu:
3. Karta przedmiotu ważna od roku akademickiego: 2012/2013
4. Forma kształcenia: studia drugiego stopnia
5. Forma studiów: studia stacjonarne
6. Kierunek studiów: AUTOMATYKA I ROBOTYKA; WYDZIAŁ AEiI
7. Profil studiów: ogólnoakademicki
8. Specjalność: Robotyka
9. Semestr: 2
10. Jednostka prowadząca przedmiot: Instytut Automatyki, RAu1
11. Prowadzący przedmiot: dr hab. inż., Prof. Pol. Śl. Henryk Palus
12. Przynależność do grupy przedmiotów: przedmioty specjalizacyjne
13. Status przedmiotu: obowiązkowy
14. Język prowadzenia zajęć: polski
15. Przedmioty wprowadzające oraz wymagania wstępne: Zakłada się, że przed rozpoczęciem studiowania
niniejszego przedmiotu student posiada przygotowanie w zakresie podstaw robotyki, podstaw miernictwa,
przetwarzania sygnałów i przetwarzania obrazów.
16. Cel przedmiotu: Celem przedmiotu jest zapoznanie studentów ze stanem techniki w dziedzinie wizyjnych
systemów sensorycznych stosowanych w automatyce i robotyce. Słuchacze w wyniku realizacji przedmiotu powinni
umieć zarówno zaprojektować system wizyjny dla konkretnego zastosowania, jak również skonstruować dla niego
odpowiedni algorytm, zaimplementować go i przeprowadzić niezbędne testy. Te wyżej wymienione cele
szczegółowe pomagają zrealizować ćwiczenia laboratoryjne prowadzone w ramach przedmiotu.
17. Efekty kształcenia:
Nr
W1
W2
W3
U1
U2
U3
K1
K2
Opis efektu kształcenia
Metoda
sprawdzenia
efektu
kształcenia
Forma
Odniesienie
prowadzenia do efektów
zajęć
dla kierunku
studiów
Zna zadania i struktury wizyjnych systemów sensorycznych SP
i ich elementy funkcjonalne.
Zna podstawowe pojęcia dotyczące oświetlaczy, sensorów SP
obrazowych, obiektywów i kamer np. równomierność
oświetlenia, współczynnik wypełnienia, transmisja
obiektywu, przepływność systemu.
Ma wiedzę o podstawowych algorytmach wizyjnych.
SP
WM
K_W17/2
WM
K_W2/2
WM
Potrafi skonfigurować system wizyjny dla potrzeb jego
konkretnego zastosowania.
Potrafi dobierać metody i konstruować podstawowe
algorytmy wizyjne dla konkretnych zastosowań.
Potrafi posługiwać się środowiskami programistycznymi
(C++, OpenCV, Matlab itp.) do implementacji algorytmów
wizyjnych.
Potrafi samodzielnie podejmować decyzje dotyczące
najlepszych rozwiązań algorytmicznych.
CL, PS
L
CL, PS
L
CL, PS
L
K_W3/3;
W4/2
K_U12/1;
U23/1; U11/1
K_U23/2;
U11/2
K_U9/2,
U12/2; U13/1
CL, PS
L
Potrafi zaprezentować i obronić zaproponowane
rozwiązanie algorytmiczno-programistyczne.
CL, PS
L
18. Formy zajęć dydaktycznych i ich wymiar (liczba godzin)
W. : 45 L. : 30
K_K1/1;
K2/1; K4/2;
K6/1
K_K1/1;
K5/1; K6/1
K7/1
19. Treści kształcenia:
Wykład
Pojęcia podstawowe: czujnik, sensor, przetwornik. System sensoryczny w strukturze robota przemysłowego.
Analogia robot-człowiek. Klasyfikacja sensorów w robocie przemysłowym. Zadania pomiarowe systemów
sensorycznych. Przegląd sensorów w robotyce. System widzenia u człowieka. Porównanie systemów widzenia
człowieka i robota. Układy oświetleniowe (tradycyjne oświetlenie i LEDy). Oświetlacze pierścieniowe. Oświetlenie
strukturalne. Projektory siatkowe i generatory linii. Przykłady nowoczesnych oświetlaczy. Kamera obscura, kamera
otworkowa. Układy optyczne (obiektywy, filtry). Właściwości obiektywów (przysłona, powiększenie,
winietowanie, głębia ostrości, zniekształcenia). Wybór obiektywu z nomogramu. Charakterystyki widmowe filtrów
barwnych. Sensory obrazowe (liniowe i matrycowe, CCD i CMOS). Architektury sensorów CCD. Koło filtracyjne.
Filtry mozaikowe (filtr Bayera). Mikrosoczewki. Współczynnik wypełnienia dla sensorów CMOS. Porównanie:
CCD - CMOS. Foveon: trójwarstwowy CMOS. Kamery monochromatyczne i kolorowe. Systemy wielokamerowe.
Szybkie kamery (fps). Smart kamery i ich oprogramowanie. Kamery internetowe. Kamery 3CCD. Kamery
wielospektralne. Charakterystyki widmowe kamery kolorowej. Kamery specjalne (kamera pigułkowa, kamera
HDR). Akwizycja obrazu: szum i ISO. Artefakty interpolacji (demozaikowanie). Elementy techniki telewizyjnej.
Interfejsy wizyjne (framegrabbery, IEEE 1394, USB, CameraLink, Ethernet etc.). Procesory obrazu. Tablice
pośrednie (LUT) i ich zastosowanie w przetwarzaniu obrazów. Ludzki układ wzrokowy: receptory. Widmowe
charakterystyki czopków. Barwy przeciwstawne. Nieprawidłowe widzenie barw: testy Ishihary. Metameryzm.
Sensory barwy. Barwa i przestrzenie barw. Dyskretna struktura sześcianu RGB. Kolorymetryczne i telewizyjne
przestrzenie barw. System Munsella. Proste przetwarzanie obrazu barwnych (zamiana barw i negacja obrazu).
Kwantyzacja obrazów barwnych (metody podziałowe i klasteryzacyjne). Problem pustych klastrów. Kalibracja
barwnych systemów wizyjnych. Obrazy binarne. Kodowanie obrazów binarnych. Definicje spójności (sąsiedztwo 4i 8-spójne). Cyfrowe przetwarzanie obrazów: operatory punktowe, lokalne i globalne. Podstawy morfologii
matematycznej dla obrazów binarnych. Segmentacja obrazu. Progowanie obrazu. Techniki segmentacji: obszarowe i
krawędziowe. Cechy opisujące obszary: momenty geometryczne, współczynniki kształtu, charakterystyki
topologiczne. Rozpoznawanie obiektów. Rozpoznawanie z wykorzystaniem modeli obiektów. Przegląd zastosowań
wizyjnych systemów sensorycznych w automatyce i robotyce. Systemy uniwersalne i specjalizowane.
Zajęcia laboratoryjne
1. Właściwości podstawowych operacji morfologicznych
2. Kodowanie obrazów binarnych i obrazów z poziomami szarości
3. Wyznaczanie rozmiaru obiektów 2D
4. Opis kształtu obiektów 2D (segmenty kołowe, wektor promieni)
5. Opis obiektów 2D z otworami
6. Liczba Eulera dla obrazu binarnego
7. Rozpoznawanie obiektów 2D z wykorzystaniem bazy modeli
8. Wyznaczanie liczby barw w obrazie
9. Progowanie obrazów barwnych
10. Segmentacja obrazów przy pomocy techniki k-means
11. Segmentacja obszarowa obrazów barwnych
12. Wizyjna kontrola jakości puszek
20. Egzamin: tak, pisemny.
21. Literatura podstawowa:
1. Tadeusiewicz R.: Systemy wizyjne robotów przemysłowych, WNT, Warszawa 1992.
2. Tadeusiewicz R., Korohoda P.: Komputerowa analiza i przetwarzanie obrazów, FPT, Kraków 1997.
3. Malina W., Śmiatacz M.: Cyfrowe przetwarzanie obrazów, Akademicka Oficyna Wydawnicza EXIT,
Warszawa 2008.
22. Literatura uzupełniająca:
1. Watkins C.D., Sadun A., Marenka S.: Nowoczesne metody przetwarzania obrazu, WNT, Warszawa 1995
2. Woźnicki J.: Podstawowe techniki przetwarzania obrazu, WKiŁ, Warszawa 1996
23. Nakład pracy studenta potrzebny do osiągnięcia efektów kształcenia
Lp.
Forma zajęć
1
Wykład
2
Ćwiczenia
3
Laboratorium
4
Projekt
0/0
5
Seminarium
0/0
Liczba godzin
kontaktowych / pracy studenta
45/30
0/0
30/55
6
Inne
Suma godzin
5/15
80/100
24. Suma wszystkich godzin: 180
25. Liczba punktów ECTS: 6
26. Liczba punktów ECTS uzyskanych na zajęciach z bezpośrednim udziałem nauczyciela akademickiego: 3
27. Liczba punktów ECTS uzyskanych na zajęciach o charakterze praktycznym (laboratoria, projekty): 3
26. Uwagi:
Zatwierdzono:
…………………………….
…………………………………………………
(data i podpis prowadzącego)
(data i podpis dyrektora instytutu/kierownika katedry/
Dyrektora Kolegium Języków Obcych/kierownika lub
dyrektora jednostki międzywydziałowej)