Informatyka i komputery historia ogólna

Transkrypt

Informatyka i komputery historia ogólna
Informatyka i komputery  historia ogólna
2 sierpnia 2000 roku, gdy większość z nas bawiła na zasłużonych wakacjach minęła rocznica, która
głośnym echem odbiła się w fachowych periodykach, a w prasie codziennej została odnotowana jedynie w niewielkich wzmiankach. W dniu tym minęło 20 lat od wprowadzenia przez firmę International
Business Machine (IBM), znaną dotąd z dużych komputerów, tzw. komputera osobistego (Personal
Computer - PC). I choć, jak się za chwilę okaże, PC firmy IBM nie był wcale pierwszym domowym
komputerem, a nawet w kręgach fachowców nie był wcale uważany za najlepszy, to jednak od niego
zaczęła się rewolucja informatyczna końca XX wieku. Dzięki niej komputer przestał być tylko narzędziem pracy garstki wtajemniczonych - informatyków, a trafił pod przysłowiowe strzechy, a raczej na
biurka zwykłych użytkowników. W pierwszym roku od wprowadzenia PC-tów sprzedano ich 130 tys.,
a w 1999 ilość sprzedanych komputerów osobistych różnych marek osiągnęła 140 milionów sztuk.
Wróćmy jednak na chwilę w głęboką przeszłość, by zaznaczyć kamienie milowe w rozwoju technik
obliczeniowych. Parafrazując słowa Biblii: ”na początku było Słowo”, tutaj na początku był system, ale
nie chodzi bynajmniej - jak chcieliby dzisiejsi zapaleńcy - o system operacyjny komputera, droga do
tego była jeszcze bardzo daleka, ale o rzecz bardziej prozaiczną - system prowadzenia obliczeń. Wpajany
nam od pierwszych klas szkoły podstawowej system pozycyjny kodowania i obliczeń dziesiętnych, znany
przedtem jedynie w Indiach, został przeszczepiony na grunt europejski ok. 820 roku przez Muhammada
Ibn Mussę Al-Chorezmi, lub, jak chcą inni, Al-Chawarizmi (Alchwarizmi). Jego dzieło przetłumaczone
na łacinę w XII wieku zapoczątkowało w Europie sztukę obliczeń pisanych na pergaminie, papierze itp.,
a od zlatynizowanej wersji jego nazwiska Algorismus wzięło nazwę słowo algorytm i w konsekwencji
podstawowa dziedzina informatyki teoretycznej - algorytmika. Warto zauważyć, że najstarszy znany algorytm - przepis na znajdowanie największego wspólnego dzielnika 2 liczb całkowitych pochodzi od
Euklidesa z przełomu IV i III w. p.n.e. Muhammedowi ibn Mussie zawdzięczamy także termin algebra
od tytułu innego dzieła poświęconego matematyce. Rozpowszechnienie systemu dziesiętnego umożliwiło użycie pierwszych pomocy rachunkowych w postaci różnego typu liczydeł, które w najbardziej
skomplikowanej postaci - japońskiego sorobanu - pozostały w użyciu do dziś. Przełom umożliwiający
mechanizację metod rachunkowych nastąpił w XVII wieku, w wyniku wynalezienia przez Johna Napiera w 1614 roku niezbyt przez niektórych z nas lubianych logarytmów. Zaowocowało to powstaniem
mechanicznych urządzeń liczących, w tym dwudziałaniowego sumatora zbudowanego przez dziewiętnastoletniego podówczas Blaisa Pascala, znakomitego fizyka i filozofa. I choć Pascal nie był pierwszy,
bo już 20 lat wcześniej Wilhelm Schickard (w 1623 r.) stworzył maszynę czterodziałaniową, to jednak
sumator Pascala bardziej się rozpowszechnił, a jego egzemplarze dotrwały w muzeach do dziś. W XVII
wieku dokonano też innego przełomu: Gottfried Leibniz pierwszy użył systemu dwójkowego do zapisu
liczb i zastosował go w swojej czterodziałaniowej maszynie liczącej. Jednak plany prawdziwego mechanicznego komputera zawdzięczamy Anglikowi, Charlesowi Babbage’owi, który po pierwszych próbach
zbudowania prostej maszyny liczącej, opracował w latach 1817-49 plany mechanicznego urządzenia liczącego mającego już oddzielny ”procesor” i ”pamięć” - Babbage nazywał je ”młynem” i ”składem”. Miał
on mieć także automatyczną drukarkę. Komputera tego nie ukończono za życia Babbage’a. Dopiero
niemal 150 lat później - w dwusetną rocznicę urodzin wynalazcy - 29 listopada 1991 roku, ruszyła i
wykonała pierwsze obliczenia - ważąca ponad 3 tony, złożona z ponad 4 tysięcy elementów i kosztująca
0,5 miliona dolarów - maszyna zbudowana w Science Museum w Londynie. A było to nie byle co obliczenia tablicy siódmych potęg stu kolejnych liczb naturalnych z dokładnością do 31 cyfr znaczących. (dzisiejsze PC-ty, przy słowie 32 bitowym mają dokładność do 9 cyfr znaczących). Dla uzyskania
jednego wyniku trzeba było jednak 27 tys. obrotów korby. Mechaniczny komputer Babbage’a był programowalny. Nośnikiem były karty perforowane wynalezione przez Josepha Jacquarda w 1801 roku do
0
sterowania krosnami tkackimi. Myślę, że wszystkie Panie z zadowoleniem przyjmą fakt, że pierwszym
w historii programistą była kobieta i to nie byle kto: Ada, córka poety lorda George’a Gordona Byrona
i żona Roberta Artura trzeciego lorda Lovelace, Wynalezienie i rozpowszechnienie próżniowych lamp
elektronowych doprowadziło do powstania na przełomie lat trzydziestych i czterdziestych I generacji
elektronicznych urządzeń liczących. Wśród wielu z nich warto wyróżnić komputer Mark I zbudowany
w 1944 roku na Uniwersytecie Harvarda przez Howarda Aikena. Był on dość imponujący, ale wolny.
Miał rozmiary 17x2x1m, 3 tys. mechanicznych przełączników, 750 tys. lamp elektronowych i 800 km
przewodów elektrycznych. Pracował w systemie dziesiętnym, miał dokładność 23 cyfr znaczących, ale
wykonywał 3 dodawania/s, 1 mnożenie na 6 sekund i 1 dzielenie na 12 sekund. Odkrycie w 1948 roku
tranzystora doprowadziło w latach 1954-58 do powstania II-ej generacji komputerów. Były to komputery serii IBM 7000 wykonujące do 250 operacji/s. Wynalezienie przez Jacka Kilby, pracownika firmy
Texas Instruments układu scalonego zaowocowało powstaniem komputerów III generacji opartej na
tzw. ”małej skali integracji”. Typowym urządzeniem był tu duży komputer IBM 360 ( u nas system
RIAD) o szybkości 36 milionów operacji/s (36 MFlops). Wynalazek układu scalonego przyniósł Jackowi Kilby po 42 latach nagrodę Nobla w dziedzinie fizyki. I tutaj historia rozwoju komputera zaczyna
się rozgałęziać. Stworzenie opartego na układach scalonych tzw. ”dużej skali integracji” mikroprocesora - pierwszym mikroprocesorem był Intel 4004 zbudowany przez Teda Hoffa w 1969 r. - prowadzi
do powstania mikrokomputera, przodka komputera domowego czy osobistego. Z drugiej strony budowa procesorów opartych na układach o ”bardzo wielkiej skali integracji” pozwala na konstrukcję
komputerów IV i superkomputerów V generacji, wykorzystujących układy wieloprocesorowe i umożliwiających przetwarzanie równoległe. Najbardziej spektakularnym wśród nich był słynny Deep Blue,
który w 1996 r. wygrał w szachy z Garym Kasparowem. Wróćmy wszakże do mikrokomputerów, bo
to ta linia rozwoju doprowadziła do powstania komputera osobistego. Zanim jednak powstał PC zbudowano inne mikrokomputery. Pierwszym z nich był Altair 8800 firmy MITS, sprzedawany hobbystom
w postaci gotowych zestawów do składania za 400 dolarów, począwszy od 1974 r. Był on oparty na
procesorze Intel 8080 i wykorzystywał język programowania Basic, którego translator opracował w
ciągu 2 tygodni na zamówienie nikomu wtedy nieznany młodzieniec Bill Gates. W rok później Bill Gates i Paul Allen założyli firmę Microsoft. Znacznie większą popularność zyskał niewątpliwie bardziej
przyjazny użytkownikowi mikrokomputer Apple zbudowany przez Stephena Wozniaka i Stevena Jobsa
w 1976 r. w przydomowym garażu za pieniądze ze sprzedaży starego Volkswagena-garbusa. Do roku
1984 sprzedano ponad 2 miliony egzemplarzy tego komputera, początkowo za 666,66 dolarów sztuka,
a Steven J. Jobs stoi do dziś na czele firmy Macintosh, spadkobiercy Apple’a. Gdy 20 lat temu firma
IBM wprowadziła na rynek mikrokomputer IBM 5150 oparty na 16-bitowym procesorze Intel 8088 z
zegarem 4.77 MHz wykorzystujący system operacyjny MS-DOS 1.0 f-my Microsoft, nie wzbudził on
zachwytu specjalistów. Miał ledwie 16 kB pamięci operacyjnej i stacje dysków elastycznych 5 1/4 cala,
a jego system operacyjny uważany był za znacznie mniej dojrzały od popularnego od 10 lat systemu
CP/M znanego w Polsce z mikrokomputerów Elwro Junior. Ale już w 1982 r. magazyn ”Time” uznał
komputer osobisty za ”Człowieka (sic) roku”. W komentarzu ”Time” pisał, że ”PC może wysyłać listy
z prędkością światła, zdiagnozować chorego pudla, w minutę przygotować program ubezpieczeniowy,
wypróbować przepisy na piwo”, a w sondażu cytowanym przez ”Time’a” 80% Amerykanów przewidywało, że komputery domowe staną się tak popularne jak telewizory czy zmywarka do naczyń. Były
to opinie prorocze, gdyż w ciągu najbliższych lat pecet, z narzędzia dostępnego tylko specjalistom, stał
się przedmiotem równie popularnym jak maszyna do pisania, umożliwiając wykorzystywanie edytorów
tekstów, arkuszy kalkulacyjnych czy baz danych i jak telewizor pozwalając na dostęp do zasobów informacyjnych i funkcji sieci globalnych takich jak Internet. Zmienił się także sam pecet. Dziś częstotliwość
zegarów popularnych pecetów kupowanych w supermarketach przekracza 1 GHz, pamięci operacyjne
1
sięgają 256 MB, procesory wykorzystują słowo 32 bitowe, a w przygotowaniu są od dawna procesory
64-bitowe. Pecet zazwyczaj wyposażony jest w wysokiej klasy karty dźwiękowe i graficzne, a często i w
kamerę wideo i kartę fax -modem, co czyni z niego wszechstronne narzędzie multimedialne. Historia
rozwoju techniki obliczeniowej, która - jak wspomnieliśmy - rozeszła się na dwie gałęzie w połowie
lat siedemdziesiątych zaczyna się dziś na powrót zbiegać. Kosztem 53 milionów dolarów powstaje w
USA najpotężniejsza dotychczas instalacja komputerowa dla celów nauki, przeznaczona do badań w
zakresie modelowania molekularnego. Nie będzie to jednak pojedynczy, najpotężniejszy nawet superkomputer, ale zbudowana przez IBM sieć ponad 1000 serwerów wykorzystujących 64-bitowe procesory
Intel Itanium i system operacyjny Linux. Przepustowość sieci wyniesie 40 miliardów bitów na sekundę,
a połączone komputery będą mogły wykonywać prawie 14 bilionów operacji na sekundę i korzystać
z pamięci 600 bilionów bajtów, co odpowiada zasobowi informacji zawartej w 146 dużych powieściach
książkowych. Warto także prześledzić rozwój mocy obliczeniowej związany z pojawieniem się procesorów wykorzystujących słowo maszynowe o coraz większej długości. Pierwszy PC sprzed 20 lat wykorzystywał słowo 16-bitowe, co odpowiada zakresowi przetwarzanych liczb 216 tj. 65536, procesor 32-bitowy
będący standardem obecnie przetwarza liczby z zakresu do 232 tj. ponad 4 miliony liczb, zaś dla procesora 64-bitowego, będącego obecnie w przygotowaniu, zakres ten wyraża się liczbą 264 czyli liczbą, którą
można przedstawić jako dwójkę z 19 zerami (2x1019). Może bardziej przemawia do wyobraźni przedstawienie graficzne, które można znaleźć w literaturze: jeśli jedna liczba to maleńka kropka, to 216 liczb
pokrywa powierzchnię znaczka pocztowego (ok. 5 cm 2), zaś 232 - 1,5 m2, a 264 - ok. 130 tys. km2 czyli
w przybliżeniu obszar Grecji. Ale to nie wzrost mocy obliczeniowej, lecz ogromne potanienie jednostki
mocy obliczeniowej zadecydowało o rozpowszechnieniu mikrokomputerów. Widać to już przy cenie
pierwszego PC kosztującego 20 lat temu. niespełna 3 tys. dolarów. W literaturze znaleźć można (Evans)
jeszcze jedno interesujące porównanie. Gdyby tak jak jednostka mocy obliczeniowej taniał Rolls-Royce
to już w 1988 r. kosztowałby poniżej dolara, a połowa uncji benzyny (16g) pozwalałaby mu jeździć bez
przerwy przez 20 lat. Kolejnym czynnikiem leżącym u podstaw rewolucji informacyjnej schyłku XX
wieku, było powstanie sieci globalnej - Internetu. Internet wykluł się w połowie lat osiemdziesiątych z
powstałej w 1968 r. wojskowej sieci badawczej zwanej Arpanet (liczyła aż... 4 komputery). Oparty na
wywodzącym się jeszcze z Arpanetu protokole TCP/IP służył początkowo do wymiany poczty elektronicznej, transferu plików oraz pracy na zdalnych komputerach. Funkcje te mogły być realizowane
przy użyciu dotychczasowego, szeroko rozpowszechnionego, systemu operacyjnego pecetów MS-DOS.
Użycie tego tekstowego systemu ograniczało jednak nie tylko krąg użytkowników do inżynierów i
naukowców, ale wydawało się także być barierą dalszego rozwoju i ekspansji Internetu. Czynnikiem,
który wyzwolił tę ekspansję i umożliwił dostęp do Internetu zwykłemu użytkownikowi, było powstanie
graficznego systemu operacyjnego Windows (zaprezentowanego 23 maja 1990 r.). System ten oparty
na filozofii ”okien” - prostokątnych obszarów zawierających wszystkie informacje o danym procesie
i obsługiwanych za pomocą manipulatora - popularnej myszy, zrewolucjonizował obsługę komputera
osobistego. Umożliwiał bowiem proste łączenie różnych aplikacji, równoczesne wykonywanie wielu zadań, a nade wszystko wykorzystywanie technik multimedialnych: dźwięku, animacji i filmu. Dzięki temu
systemowi komputer osobisty stał się naturalnym oknem do Wszechświatowej Pajęczyny (World Wide
Web), najpopularniejszego bodaj dzisiaj sposobu wykorzystania Internetu. Wszechświatowa Pajęczyna
to system bardzo wielu serwerów (tzw. Komputerów - hostów) udostępniających informacje sporządzone w technice hipertekstu, gdzie pojedynczy dokument, zwany stroną, zawiera szereg odnośników
(w postaci słów oznaczonych kursywą, ozdobników graficznych czy obrazów) pełniących rolę odsyłaczy do innych dokumentów. ”Kliknięcie” myszą na odnośniku powoduje przejście do dokumentów
będących objaśnieniem, rozwinięciem czy też ilustracją dokumentu podstawowego. Dostęp do zasobów
sieci ułatwiają odpowiednie przeglądarki np. Nestcape Navigator czy Internet Explorer. A są to zasoby
2
ogromne i wszechstronne: katalogi bibliotek i muzeów, w tym reprodukcje dzieł sztuki, serwisy agencji
prasowych i aktualne wydanie czasopism, notowania giełdowe i bieżące mapy pogody, a także, z lżejszej kategorii, teksty i nuty piosenek, jak również same utwory, fragmenty filmów, a nawet przepisy
kulinarne. W znalezieniu poszukiwanej przez nas informacji pomagają liczne wyszukiwarki, np. Yahoo
czy AltaVista. Zakres usług internetowych poszerzył się o nowe możliwości, takie jak udział w listach
dyskusyjnych, czy w modnych obecnie - zwłaszcza wśród młodzieży - pogawędkach (tzw. chat) z podłączonymi na tym samym kanale innymi użytkownikami. Karierę robią nie tylko internetowe usługi
bankowe, ale także możliwość zakupów w sklepach internetowych. Powstały nowe gałęzie biznesu (tzw.
e-business) związane z usługami internetowymi. Pojawiły się także dość nieoczekiwane usługi jak możliwość wzięcia ślubu przez Internet, czy nawet wyspowiadania się. Internet w wielu państwach staje
się kośćcem organizacji państwowej ułatwiając współpracę organom administracji różnych szczebli,
od gminnych do rządowych, ale także umożliwiając bezpośredni kontakt z nimi zwykłym obywatelom. Nieograniczony dostęp do informacji publicznych w dowolnym czasie, bieżąca obserwacja działań
rządowych, możliwość tworzenia i publikowania informacji przez jednostki, niewątpliwie poszerza zakres funkcjonujących swobód obywatelskich. Zupełnie nowe możliwości otwiera Internet w edukacji.
Realne staje się - dzięki interaktywności i indywidualizacji - nauczanie na odległość (teleedukacja) na
różnych poziomach kształcenia, od zawodowego po uniwersyteckie. Rozpowszechnienie i globalizacja
informacji przydaje tej informacji nieznane dotąd wartości: - informacja znacznie częściej niż kiedykolwiek staje się towarem, często przynoszącym ogromne zyski; - informacja jest czynnikiem kreującym
zupełnie nowe gałęzie przemysłu telekomunikacyjnego i informatycznego (firmy internetowe o nieczęsto spotykanej dynamice wzrostu); - informacja staje się czynnikiem produkcji od którego zależy
pozycja firmy na rynku, przewaga nad konkurencją itd.; - informacja wreszcie staje się katalizatorem
głębokich przemian gospodarczych i cywilizacyjnych - współczesne wielkie koncerny międzynarodowe
cechuje organizacja sieciowa i globalizacja, przeciw której tak wielu dziś protestuje. Ów dramatyczny
rozwój środków komunikacji i narzędzi przetwarzania informacji, ale także i wzrost zapotrzebowania
na informację w społeczeństwie oraz fakt, że - jak wspomniano wyżej - informacja i jej przetwarzanie
staje się w coraz większym stopniu elementem dochodu narodowego i źródłem utrzymania poważnej
części społeczeństwa, prowadzi do nowej organizacji społeczeństwa, opartej na szerokim dostępie do
informacji, czyli społeczeństwa Informacyjnego. Termin ten po raz pierwszy pojawił się w 1963 r. w
Japonii jako ”Johoka Shakai” w artykule Tadao Umesamo, dziennikarza japońskiego dziennika ”Hoso
Asahi”. Niektórzy autorzy uważają, że nieprzypadkowo koncepcja ta pojawiła się właśnie tam i właśnie
wtedy. Miała ona służyć jako ideologia organizująca wyobraźnię społeczną i mobilizująca do rozwoju
takich gałęzi przemysłu - przemysłu przetwarzania informacji - gdzie pozbawiona surowców Japonia
mogła skutecznie konkurować z dominującym w zakresie tradycyjnej gospodarki Zachodem. Rezultaty
tej mobilizacji możemy obserwować i podziwiać do dziś.
3