Wynalazek tranzystora(nagroda Nobla)
W laboratoriach Bella w USA, kierowany przez Bardeena i Brattaina, w 1947 roku wykonał pierwszy tranzystor z małego kawałka metalopodobnego pierwiastka chemicznego: germanu.
Urządzenie doświadczalne wyglądało prymitywnie, ale mogło wzmacniać moc sygnału 100-krotnie. Dzisiaj wszystkie komputery i urządzenia elektroniczne pracują na tej samej zasadzie.
Tranzystor ostrzowy - 1948 - J. Bardeen, W.H. Brattain (USA),
Tranzystor warstwowy - 1949 - W. Shockley (USA),
Rok 2001. Holenderscy naukowcy z Uniwersytetu w Delft stworzyli tranzystor składający się z jednej cząsteczki! Rozmiar tego cudu miniaturyzacji wynosi zaledwie jeden nanometr (10 -9 m), a do zmiany swojego stanu (włączony / wyłączony) potrzebuje on tylko jednego elektronu!
Naukowcy przewidują, że ich wynalazek pozwoli na konstruowanie układów miliony razy szybszych od obecnie stosowanych, przy czym ich wielkość pozwoli na dalszą miniaturyzację elektronicznych urządzeń
Tranzystory bipolarne
Rodzaje tranzystorów
Tranzystory (z ang. Transfer Resistor) należą do grupy elementów półprzewodnikowych o regulowanym (sterowanym) przepływie nośników ładunku elektrycznego. Biorąc pod uwagę zasadę działania, tranzystory dzielimy na: bipolarne i unipolarne (polowe).
Tranzystory bipolarne są najczęściej wykonywane z krzemu, rzadziej z germanu. Ze względu na kolejność ułożenia warstw półprzewodnika rozróżniamy:
- tranzystory NPN,
- tranzystory PNP.
Mogą one być z:
- jednorodną bazą (dyfuzyjny),
- niejednorodną bazą (dryftowy).
Tranzystory polowe, zwane również w skrócie FET (ang. Field Effect Transistor), dzielimy na:
- złączowe (JFET -- ang. Junction FET);
- z izolowaną bramką (1GFET lub MOSFET -- ang. Insulated Gate FET lub Metal Oxide Semiconductor FET).
względu na rodzaj charakterystyki prądowo-napięciowej rozróżniamy tranzystory z:
-kanałem wzbogacanym (normalnie wyłączone, tzn. kanał ma przeciwny typ przewodnictwa niż podłoże i przy braku zewnętrznej polaryzacji nie występuje w tranzystorze);
- kanałem zubożanym (normalnie załączone, tzn. w kanale jest mniej nośników niż w podłożu, przy braku zewnętrznej polaryzacji tranzystora kanał istnieje).
Tranzystory, tak jak i diody, mogą być: małej, średniej i dużej mocy. Maksymalna moc wydzielana w tranzystorze zależy od powierzchni zajmowanej przez tranzystor i od sposobu odprowadzania ciepła. Ze względu na zakres przetwarzanych częstotliwości, tranzystory dzielimy na małej i wielkiej częstotliwości. O zaliczeniu ich do którejś z tych grup decydują właściwości zastosowanego półprzewodnika, wymiary konstrukcyjne jego poszczególnych elementów oraz rodzaj i czas trwania procesów technologicznych, jakim były poddawane.
Struktura tranzystora
Tranzystor bipolarny składa się z trzech obszarów półprzewodnika o przeciwnym typie przewodnictwa, co powoduje powstanie dwóch złączy: PN i NP. Każdy z trzech obszarów półprzewodnika ma swoją nazwę: baza, emiter, kolektor, a złącza nazywa się -- złączem emiterowym (złącze emiter-baza) i kolektorowym (złącze baza-kolektor).
Tranzystory polowe dzielimy na:
- złączowe (ze złączem PN)
- z izolowaną bramką
Modele struktury tranzystora:
A. odpowiadające im symbole graficzne
B. schemat graficzny
Tranzystory polowe (unipolarne -- FET)
Tranzystory polowe w skrócie zwane FET (ang. Field Effect Transistor), są również nazywane unipolarnymi. Tranzystory te mają kanał typu N lub P, który może być wzbogacany lub zubożany.
W tranzystorach unipolarnych elektrody mają następujące nazwy i oznaczenia:
S -- źródło (ang. Source),
G -- bramka (ang. Gate),
D -- dren (ang. Drain).
W tranzystorach polowych w przepływie prądu biorą udział nośniki większościowe jednego rodzaju -- dziury lub elektrony (stąd nazwa unipolarne). W tranzystorach z kanałem typu N nośnikami prądu są elektrony, a z kanałem typu P -- dziury. Wartość prądu przepływającego przez tranzystor polowy, zależy od wartości napięcia przyłożonego między źródłem a drenem oraz od wartości rezystancji kanału.
Tranzystory polowe dzielimy na:
- złączowe (ze złączem PN)
- z izolowaną bramką
Wiek XX, a dokładniej kilkadziesiąt powojennych lat, to wiek komputera.
Tak gwałtownego rozwoju technik informacyjnych i masowego upowszechnienia nie przewidywali nawet ich pionierzy. Dziś każdy, kto chce aktywnie uczestniczyć w życiu społeczeństwa, staje przed koniecznością korzystania z technologii informacyjnej.
W projekcie należy uwzględnić również takie zagadnienia jak:
Wynalazek układu scalonego(Nagroda Nobla)
Będące dziś w użyciu oprzewodowane obwody scalone lub tranzystory krzemowe zostały wykonane po raz pierwszy przez Boba Noyce'a w zakładach Fairchild Semiconductors w 1961 roku, chociaż teorię opracował Jack Kirby z firmy Texas Instruments (1959 rok). Noyce wpadł na pomysł, że byłoby możliwe wydrukowanie całego obwodu elektronicznego na powierzchni karty, przy zastosowaniu procesu fotograficznego.
Wielkoseryjna produkcja układów scalonych rozpoczęła się w 1962 roku po odkryciu maskujących właściwości warstwy dwutlenku krzemu i wprowadzeniu technologii planarnej obowiązującej do dziś. Układ scalony, to mikrominiaturowy układ elektroniczny odznaczający się tym, że wszystkie, lub znaczna część jego elementów są wykonane nierozłącznie w jednym cyklu technologicznym, wewnątrz lub na powierzchni wspólnego podłoża którym jest obecnie najczęściej płytka monokrystalicznego krzemu o wymiarach milimetrowych. Układ scalony który można nabyć w handlu, zawarty jest w obudowie chroniącej go przed wpływem czynników zewnętrznych (zanieczyszczenia, wilgoć, czynniki mechaniczne).
Układy scalone można różnie klasyfikować.
Pod względem cech technologiczno-konstrukcyjnych dzieli się je na półprzewodnikowe i warstwowe.
Półprzewodnikowym układem scalonym jest układ, w którym zarówno elementy czynne (dioda, tranzystor) jak i bierne (rezystor, kondensator, cewka), są wytworzone w monokrystalicznej płytce półprzewodnikowej za pomocą odpowiednich procesów fizyko-chemicznych z zachowaniem ciągłości mechanicznej kryształu - elementy są nierozłączne, jeden przechodzi w drugi i nie można układu naprawić.
Warstwowym układem scalonym nazywa się taki układ, który zawiera elementy bierne w postaci warstw różnych materiałów naniesionych na bierne podłoże izolacyjne - najczęściej na podłoże ceramiczne. Elementy czynne (półprzewodnikowe), są do układu warstwowego dolutowywane zewnętrznie.
W zależności od stopnia rozbudowania, układy scalone dzieli się na:
1. SSI (small scale integration) - zawierający do 10 komórek elementarnych
2. MSI (medium ...) - układ zawiera do 100 komórek (wymiary się nie zmieniają),
3. LSI (large ...) od 100 do 1000 komórek w jednej strukturze,
4. VLSI (very large ...) ponad 10 000 do 1 mln komórek (powiązania z mikroprocesorem).
W zależności od zastosowań, układy scalone dzieli się na analogowe i cyfrowe.
Obecnie koncern Hitachi opracował układy scalone, których grubość nie przekracza 0,4 milimetra, co pozawala wtopić je na przykład w banknoty. Nowy chip można zginać jak kartkę papieru i zapisywać w nim informacje o pojemności 128 bitów. Dodatkowo doskonale komunikuje się ze specjalnymi czytnikami, co umożliwi np. błyskawiczne sprawdzenie autentyczności banknotu
Zdalne sterowanie podczerwienią
Układ testowania pilotów RTV
Przedstawiony w artykule układ umożliwia realizację prostego jednokanałowego zdalnego sterowania typu włącz - wyłącz za pomocą typowego pilota do sprzętu RTV, lub najprostszego nadajnika podczerwieni pracującego na częstotliwości 38 kHz. Układ umożliwia jedynie włączenie lub wyłączenie sterowanego urządzenia, bez możliwości reakcji na kody sterujące emitowane przez piloty RTV.
Układ składa się z kilku prostych bloków funkcjonalnych zrealizowanych w oparciu o układy scalone. Są to:
• układ odbiorczy z wykorzystaniem scalonego odbiornika podczerwieni US1,
• układ formowania impulsu dodatniego z kodu emitowanego przez nadajnik wykonany przy wykorzystaniu przerzutnika monostabilnego US2,
• układ dekodująco - wykonawczy złożony z US3, T1, T2, i przekaźnika.
Całość jest uzupełniona o najprostszy nadajnik podczerwieni emitujący jedynie falę nośną, przeznaczony dla tych czytelników którzy nie dysponują żadnym pilotem.
Opis układu
Schemat układu nadajnika przedstawiono na rys.1, natomiast schemat układu odbiorczego na rys.4. Nadajnik zbudowany jest w oparciu o popularny układ czasowy 555, który jest odpowiedzialny za wytworzenie niemodulowanej fali nośnej o częstotliwości 38 kHz. Częstotliwość generowanego przebiegu prostokątnego jest uzależniona od wartości C1, R2, i R3. Ponieważ jako R3 zastosowano potencjometr istnieje możliwość regulacji częstotliwości. Wytworzona fala nośna steruje kluczem tranzystorowym T1, który załącza w takt przebiegu diody D1, D2, i D3 emitujące podczerwień. Włączenie nadajnika następuje po zwarciu styków miniaturowego przełącznika SW1, za pomocą którego doprowadzamy napięcie 9V z baterii 6F22. Wyemitowana fala nośna trafia do układu odbiorczego gdzie zostaje poddana detekcji przez układ scalonego odbiornika podczerwieni US1. Układ ten jest wyposażony w prosty filtr zaporowy światła dziennego, dzięki czemu całość reaguje jedynie na podczerwień, oraz prosty układ optyki kształtujący odpowiedni obszar detekcji. Wyjście US1 jest kompatybilne z TTL-CMOS. Sygnał wyjściowy ma postać zdemodulowanego przebiegu TTL dla sygnału pochodzącego z pilota RTV, lub impulsu ujemnego o czasie trwania rzędu kilkuset milisekund dla niemodulowanej fali nośnej z naszego nadajnika. Sygnał ten jest podany do przerzutnika monostabilnego US2. Przerzutnik jest wyzwalany pierwszym ujemnym zboczem w zdekodowanym przebiegu TTL. Zadaniem przerzutnika jest zamiana szeregu impulsów TTL odpowiadających odpowiednim kodom sterującym z pilota na jeden stabilny impuls wyzwalający, który przełącza jeden z przerzutników typu D zawartych w US3. Każdy impuls z US2 podany do przerzutnika D powoduje zmianę stanu wyjścia Q na przeciwną i w konsekwencji załączenie lub wyłączenie układu wykonawczego zbudowanego z tranzystorów T1, T2, i przekaźnika Pk1. Przerzutnik D wyposażony jest w układ automatycznego resetowania po włączeniu napięcia zasilającego, złożony z elementów C3, i R4. Dzięki niemu zawsze po włączeniu zasilania na wyjściu Q panuje stan niski. Całość jest zasilana ze źródła napięcia stałego, stabilizowanego o wartości +5V.
Montaż i uruchomienie
Montaż przedstawionej konstrukcji rozpoczynamy od wykonania płytek drukowanych przedstawionych na rysunkach rys.2, i rys.5. Płytki zostały tak zaprojektowane aby można je było wykonać pisakiem do druku z końcówką 0,5 mm. Czytelnicy którzy nie zechcą wykonywać własnoręcznie płytek mogą wykorzystać dostępne w handlu uniwersalne płytki drukowane. Jeżeli dysponujemy jakimkolwiek sprawnym technicznie pilotem RTV, to możemy pominąć wykonanie nadajnika podczerwieni. Rozmieszczenie elementów przedstawiają rysunki rys.3, i rys.6. Montaż elementów rozpoczynamy od wlutowania zwór oznaczonych na schematach montażowych jako ZW. W dalszej kolejności lutujemy pozostałe elementy elektroniczne. Uruchomienie nadajnika rozpoczynamy od podłączenia baterii 6F22, i ustawienia częstotliwości generowanego przebiegu na 38 kHz. Częstotliwość ta jest częstotliwością środkową filtru środkowo przepustowego wbudowanego w scalone odbiorniki podczerwieni (istnieje kilka wyjątków). W związku z tym jej wartość należy ustawić z dokładnością nie gorszą niż ±0,5 kHz. Układ pilota należy umieścić w niewielkiej obudowie z tworzywa wraz z baterią zasilającą. Należy też zadbać o dobry dostęp do jedynego przycisku sterującego SW1. Zmontowany układ odbiornika należy wstępnie podłączyć do zasilacza stabilizowanego +5V w celu przetestowania poprawności jego działania. Na wyjściu przerzutnika D powinien pojawić się stan niski. Jeśli z jakichkolwiek powodów tak się nie stanie to należy zwiększyć wartość C3. Następnie należy posłużyć się pilotem RTV lub naszym nadajnikiem, aby sprawdzić poprawność odbioru. Na wyjściu 1 układu US1 powinien pojawić się ciąg zdekodowanych impulsów lub pojedynczy impuls o długości kilkuset milisekund w przypadku użycia naszego nadajniczka. Brak tych impulsów może świadczyć np. o nieprawidłowym połączeniu odbiornika podczerwieni z płytką, w przypadku kiedy użyjemy układu innego typu o zmienionych wyprowadzeniach. Następnie sprawdzamy jaka jest długość impulsu generowanego przez przerzutnik monostabilny US2 (np. za pomocą oscyloskopu z kalibrowaną podstawą czasu). W przypadku współpracy z pilotem RTV impuls ten powinien być nieco dłuższy od czasu trwania całego kodu sterującego emitowanego przez pilot. Zapewni to stabilną pracę całości. Odpowiednie stałe czasowe są określone przez elementy R6, i C4. Ich zwiększenie powoduje wydłużenie czasu trwania impulsu, zmniejszenie skraca ten impuls. Ewentualną korekcję należy dokonać jedynie poprzez zmianę wartości R6, jednak w większości przypadków jakiekolwiek korekcje w ogóle nie będą potrzebne. W razie kłopotów z nabyciem dławika L1 można w jego miejsce wlutować rezystor o wartości 47 . Jeżeli całość układu reaguje poprawnie na sygnały sterujące to możemy teraz umieścić układ odbiorczy w niewielkiej metalowej obudowie połączonej elektrycznie z masą układu. Zasilanie do układu należy doprowadzić za pośrednictwem kondensatora przepustowego zamontowanego w ściance obudowy. Kondensator przepustowy łączymy wewnątrz obudowy z płytką odbiornika przez dławik 100 - 470 H. Zapewni to wymaganą odporność układu na impulsy zakłócające jakie mogą pojawić się w sieci zasilającej, lub w najbliższym otoczeniu (w postaci impulsów elektromagnetycznych). W ostateczności można to połączenie wykonać kawałkiem przewodu lub lepiej prostym własnoręcznie wykonanym dławikiem powstałym przez nawinięcie kilkudziesięciu zwojów przewodu DNE 0,2 na korpusie rezystora MŁT 0,5W o rezystancji kilkudziesięciu kiloomów. Drugi przewód zasilający (masa) łączymy bezpośrednio z obudową i masą płytki drukowanej odbiornika.
Propozycje wykorzystania układu
Uwagi eksploatacyjne
Najprostszym z możliwych zastosowań przedstawionej w artykule konstrukcji jest załączanie i wyłączanie niewielkiego obciążenia np. lampy na biurku. Możliwe jest także wykorzystanie tego układu do sterowania różnego rodzaju zabawek i modeli wykonanych przez Czytelników. Sterowanie tego typu może odbywać się w pomieszczeniach zamkniętych w których nie pracują żadne inne systemy zdalnego sterowania w podczerwieni, lub na wolnym powietrzu. Funkcjonowanie innych bliskich systemów tego typu spowoduję że nasz odbiornik będzie reagował na obce sygnały sterujące. W konsekwencji tego konstrukcja pod żadnym pozorem nie może być wykorzystana w zastosowaniach przemysłowych gdzie mogłaby stanowić potencjalne zagrożenie dla bezpieczeństwa ludzi, stanowiąc zagrożenie zdrowia i życia. W systemach w których trzeba brać pod uwagę bezpieczeństwo ludzi należy wykorzystywać konstrukcje które rozpoznają kody sterujące. Inną z możliwości wykorzystania konstrukcji jest zastosowanie jej w serwisach RTV do sprawdzania pilotów (nadajników) zdalnego sterowania urządzeń RTV. W takim przypadku odbiornik może być pozbawiony obudowy, lub mieć jedynie tanią obudowę z tworzywa. W miejsce przekaźnika montujemy wtedy diodę LED wraz z rezystorem ograniczającym. Dioda D1 staje się zbędna. Testowanie pilota polega na kolejnym naciskaniu wszystkich jego klawiszy. Zapalenie się lub zgaśnięcie LED będzie świadczyć o wyemitowaniu przez pilot impulsu sterującego. Niestety tego rodzaju orientacyjny test nie pozwoli nam na dokładną analizę samego kodu sterującego emitowanego przez pilot. Aby można było sprawdzić kody należy posłużyć się analizatorem stanów logicznych podłączonym do wyjścia US1 lub do końcówki 3 US2. W zastępstwie analizatora stanów można też wykorzystać oscyloskop cyfrowy z pamięcią rejestrowanego przebiegu.
Hipertekst
Termin oraz idea hipertekstu pochodzą od Teda Nelsona, który wynalazł go i zastosował dla swojego systemu Xanadu już w 1965 roku. Ćwierć wieku później koncepcja hipertekstu legła u podstaw World Wide Web. W przypadku tego systemu zastosowanie hipertekstu miało cechy rewolucji technologicznej: odsyłacze tekstowe mogły prowadzić nie tylko do lokalnych dokumentów, ale do również do informacji znajdujących się na komputerach rozlokowanych na całym świecie. Hipertekst jest technologią, której internet zawdzięcza swoją niezwykłą popularność. Pojęcie hipertekstu wprowadził Ted Nelson jednak już dwadzieścia lat wcześniej Vannevar Bush przedstawił pomysł urządzenia mikrofilmowego wykorzystującego ideę hipertekstu, które nazwał memexem. Ted Nelson od ponad 30 lat pracuje nad systemem hipertekstowym Xanadu. Opublikował listę wymagań dla implementacji Xanadu, z których część spełnia HyperWave, dawniej znany jako Hyper-G, wykonany na Politechnice w Grazu (Austria).
Dokumenty hipertekstowe różnią się tym od zwykłych, że posiadają w swojej treści dynamiczne odnośniki do kolejnych dokumentów. Odnośniki te mogą dotyczyć dokumentów zgromadzonych na: lokalnym komputerze, komputerach sieci lokalnej oraz serwerach sieci internetowych. Ta właściwość daje projektantom stron WWW nieograniczone możliwości twórcze, limitowane jedynie jego fantazją. W dokumentach hipertekstowych mogą występować także obiekty multimedialne takie jak grafika, animacja, dźwięki, filmy itp. Dokumenty tego typu są zbiorami tekstowymi ( kodowanymi wg normy ISO-8859;PN-93 T-42118 ), zawierającymi proste polecenia składu tekstu. Polecenia te w większości są podobne do poleceń edytora TeX oraz jemu podobnych procesorów tekstu. W celu przyśpieszenia transmisji poprzez rozległą sieć , dokument przesyłany jest w postaci źródłowej. Interpretacja poleceń składu odbywa się poprzez przeglądarkę stron WWW. Taka konwencja pozwala również, oprócz przyśpieszania transmisji, na uniezależnienie się od systemu operacyjnego i komputera, na którym oglądany ma być tekst. Przygotowanie dokumentu można przeprowadzić zwykłym edytorem tekstowym np. w edytorze Nortona Comandera, MS-DOS Edit lub Notepadzie. Nie jest również wymagane akceptowanie przez edytor znaków narodowych. Gotowy dokument hipertekstowy umieszczamy na serwerze WWW w katalogu ustalonym przez administratora systemu. Wymagania, które należy spełnić, aby umieścić swoją stronę w Internecie:
Posiadać konto użytkownika na serwerze WWW. Takie konto można wykupić w firmie posiadającej serwer lub skorzystac z usługi bezpłatnej – np. z oferty POLBOX-u ( http://www.polbox.pl ).
Utworzyć stronę i przesłać ją na swoje konto. W razie konieczności należy utworzyć odpowiedni katalog – najczęściej na serwerach Unixowych, gdzie tworzy się katalog o nazwie public_html. Unix wymaga także rozszerzeń html. Katalog udostępnia się komendą chmod.public_html 744.
(HTML, HyperText Markup Language, specjalny język służący do opisu strony oraz odniesień z poszczególnych jej elementów do innych dokumentów. Język ten powstał na potrzeby internetowej usługi WWW. HTML jest stale rozwijany, a kolejne jego wersje wzbogacane są o nowe możliwości. Pliki zawierające strony napisane w języku HTML charakteryzują się rozszerzeniem “.html” bądź “.htm”.
Umożliwia umieszczenie na stronie tekstu zdefiniowanych dyrektyw co do sposobu jego prezentacji, wyróżnienia pewnych jego elementów edytorskich jak akapity, nagłówki itp. Pozwala także umieszczać bezpośrednio na opisywanych stronach grafikę, a w najnowszych wersjach również inne typy dokumentów. Pewne zdefiniowane przez autora strony elementy (np. fragmenty tekstu) mogą dodatkowo wskazywać na inne dokumenty. Wskazanie takie odbywa się przez zdefiniowanie tzw. URL jednoznacznie określającego dokument w obrębie odpowiedniej przestrzeni (np. w lokalnej kartotece lub w sieci Internet). Technikę tą określa się mianem hipertekstu. Strony napisane tym języku są interpretowane przez przeglądarkę WWW taką jak np. Netscape Navigator lub Internet Explorer.
Cały urok systemu WWW polega na tym, że odsyłacz może wskazywać informacje znajdujące się na zupełnie innym komputerze, w innym końcu świata.
Coraz częściej ze struktura hipertekstową można spotkać się w publikacjach elektronicznych dostarczanych na płytach CD-ROM: encyklopediach, słownikach, dodatkach do czasopism, etc. Również systemy pomocy w wielu programach oparte są na podobnej organizacji materiałów informacyjnych.
Hipertekst, forma prezentacji tekstu. Dokument hipertekstowy jest normalnym tekstem, z tym że niektóre słowa (bądź wyrażenia) stanowią odsyłacz (link) do innego dokumentu lub innego miejsca w bieżącym pliku. Słowa takie są z reguły prezentowane jako podkreślone, dodatkowo mogą być prezentowane w innym kolorze. Hipertekst występuje najczęściej na stronach WWW albo w systemach pomocy programów systemu Windows. Występuje on również w publikacjach multimedialnych, np. Multimedialna Encyklopedia Powszechna firmy Fogra Multimedia zawiera ponad 2 mln linków.
Łącznik hipertekstowy, odsyłacz, odnośnik (angielskie link), element hipertekstu pełniący funkcję odsyłacza książkowego, tj. proponujący czytelnikowi przejście do innego miejsca hipertekstu. Systemy hipertekstowe zapamiętują drogę, którą wybiera użytkownik w hipertekście, umożliwiając łatwe wycofywanie się do punktu wyjścia.
Wyobraź sobie tylko świat bez nagrań Chemical Brothers czy Fatboy Slim. Świat, w którym nie istnieje Quake III, a Polską rządzi Jaruzelski, zaś ostatnim hitem na listach przebojów jest: "Nie ma to jak dziadzio" chóru szkoły przy kościele w Pcimiu Dolnym. Mając w perspektywie takie przeraźliwości, biegniesz do kiosku i szukasz upojenia w swoim ulubionym czasopiśmie, ale okazuje się że ono nie istnieje. Podobnie jak nie ma komputerów.
Nie, nie brałem niczego halucynogennego, opisuję tylko stan rzeczywisty z roku 1980. Już dwanaście miesięcy później wydarzyło się coś, co zmieniło świat: IBM wyprodukował komputer PC. W ciągu następnych dwudziestu lat zmieniło się praktycznie wszystko: przemysł, filmy, edukacja, wydawnictwa, muzyka, gry, a nawet sposób w jaki się porozumiewamy. Nieźle jak na dwudziestolatka. Pecet jest jednym z najważniejszych producentów w dziejach ludzkości, a komputery przebierają w dzisiejszych czasach najrozmaitsze postacie: od klonów IBM PC, poprzez kieszonkowe palmtopy, Apple Macintoshe, do niewiarygodnie szybkich graficznych stacji roboczych. Na tej stronie postaram się przybliżyć sposób, w jaki ta niepozorna skrzynka z bitami ma tak potężny wpływ na wszystkie aspekty życia.
Pierwszy pośród równych
IBM PC nie był pierwszym masowo produkowanym komputerem - był nim Apple II, który powstał w roku 1977. To co sprawia, że maszyna IBM była inna, jest fakt, że w przeciwieństwie do produktów Apple, także inne firmy mogły produkować pecety: pierwszy klon komputera IBM produkcji Columbia Data Systems pojawił się w 1982 roku. Pomimo że niewiele osób je pamięta firmy takie jak Amstrad odegrały olbrzymią rolę w upowszechnieniu pecetów i obniżeniu ceny. W roku 1986 każdy mógł pójść do sklepu i zaopatrzyć się w komputer Amstrad PC, wydając równowartość zaledwie 2500 zł. Także firmy programistyczne miały swój udział w sukcesie. Arkusz kalkulacyjny Lotus 1-2-3 właściwie samodzielnie sprawił, że komputery stały się nieodzowne do prowadzenia jakichkolwiek interesów.
Jeżeli Apple pozwoliłyby innym przedsiębiorstwom produkować klony swoich maszyn, IBM PC mógłby zostać sprowadzony do drobnego przedsięwzięcia, o którym mówiłoby się: " a co się z nim stało?", włączywszy konstrukcje takie jak Dragon 32. Comodore C64 czy BBC Micro. Ale Apple nie przyjął tej polityki, więc komputery kompatybilne firmy IBM PC opanowały wkrótce cały świat. Programiści rozpoczęli produkcje ton rozmaitych software'ów, a wykonawcy sprzętu opracowywali coraz ciekawsze elementy maszynerii. Z racji tego, że konkurencja była dość mocna, firmy stopniowo zaczęły obniżać ceny na swoje produkty, wprowadzając nowe rozwiązania lub poprawiając wydajność dotychczasowych. Wojny pecetowe rozpoczęły się na dobre.
Wielkie interesy
Pierwszy sukces został odniesiony w świecie interesów - czemu trudno się dziwić z racji tego, że oryginalny PC powstał jako maszyna do tego sektora. Praca z arkuszem kalkulacyjnym, być może, nie jest najbardziej ekscytującym zajęciem na ziemi, ale dla księgowych programy tego typu były zbawieniem. Zamiast zapełniać całe strony słupkami, mając nadzieję, że nie została popełniona pomyłka, można wprowadzić dane do arkusza i zlecić komputerowi wykonania wszystkich obliczeń. W systemach, które oparto na rachunkach papierowych, udzielenie odpowiedzi na pytanie, takie jak: " co by się stało, gdyby nasze koszty wzrosły o 3,52%?", zajęłoby nam to całe dni albo tygodnie. Arkusz kalkulacyjny skraca ten czas do ułamków sekund, gwarantując poprawność obliczeń.
Także bazy danych były niezwykle istotnym ułatwieniem. Zamiast potężnych magazynów z zakurzonymi szafami z aktami, olbrzymie ilości ważnych informacji były przechowywane na jednym komputerze, a dostęp do nich zajmował sekundy. Firmy mogły dokładnie analizować wydatki, szczegółowe dane o zatrudnieniu, sprzedaży, wystawiać faktury - i co tylko można sobie wyobrazić. Komputer PC był w stanie poradzić sobie z wieloma zadaniami.
Bazy danych otwierały kolejny zakres możliwości: Umożliwiały przechowywane informacji na temat klientów. Dodając do tego edytor tekstu, można było w kilka chwil wysłać osobiście zaadresowane listy do tysięcy odbiorców. Oczywiście, edytory tekstu nie służyły tylko rozsyłaniu ulotek. Sekretarki mogły szybko sporządzić dzięki nim dokumenty, kontrakty i zamówienia bez konieczności spędzania wielu godzin nad prawniczym bełkotem. A dziennikarze, pisarze i inni "klawiszowi" wklepywacze szybko wyrzucili maszyny do kosza. Dużą zaletą edytora tekstu było to, że znajdował się w zasięgu finansowych możliwości nie tylko dużych przedsiębiorstw - nawet niewielki firmy było stać na korzystanie z pecetów celem uzyskania profesjonalnego wizerunku wobec reszty świata.
Jak widać pojedynczy komputer jest potężnym narzędziem, ale jeszcze większy potencjał daje połączenie całej gromadki komputerów. Wszystkie duże przedsiębiorstwa wykorzystują niewiarygodne liczby pecetów, które spina się w sieć, a w wielu przypadkach taka struktura całkowicie zastąpiła potężne systemy typu mainframe. Sieć oferuje najlepsze cechy obu tych światów: pracownicy korzystają z możliwości i mocy przerobowych pecetów, a łącza pozwalają na dzielenia plików, współpracę nad różnymi projektami i bardzo efektywny sposób porozumiewania się.
Komputery PC miały także ogromny wpływ na strukturę zatrudnienia. Hale wypełnione maszynistkami, widok, który można było spotkać w prawie każdym dużym przedsiębiorstwie, zniknęły, a ich struktura została zupełnie zmieniona przez nowoczesną technologię. Mimo że wiele zawodów bezpowrotnie odeszło w niepamięć, pojawiło się na ich miejsce jeszcze więcej nowych: od centrów telekomunikacyjnych, przez administratorów sieci, zarządców baz danych, szkoleniowców, aż projektantów stron internetowych. Nagle zrodziły się nowe gałęzie przemysłu, technologia umożliwiła ludziom pracę w domu i w podróży, a wraz z pojawieniem się World Wide Web okazało się, że chałupnicze firmy mogą sprzedawać własne produkty odbiorcom znajdującym się na drugim krańcu świata.
Styl życia
Wraz ze wzrostem wydajności i rosnącą popularnością pecety, zaczęły się pojawiać w biurach projektowych. Zamiast rysować plany na papierze, architekci mogli projektować budynki na ekranach monitorów, dodając różne poziomy szczegółów, a nawet przeprowadzając symulacje, które pomagały wybrać odpowiedni w danym przypadku rodzaj konstrukcji. Bardziej zaawansowane komputery wprowadziły modelowanie trójwymiarowe, które zastąpiło stosowane do tej pory schematy szkieletowe i artystyczne rysunki budowli jeszcze nieistniejących. Technologia wirtualnej rzeczywistości umożliwiła architektom oprowadzanie gości po swoich wirtualnych modelach. A to tylko na początek: dzięki komputerom stało się możliwe przewidywanie sposobu, w jaki zachowują się budynki w trakcie trzęsienia ziemi, gwałtownej burzy czy ataku gigantycznego goryla.
Także przemysł zyskał na komputeryzacji. Większość samochodów jest obecnie projektowana komputerowo i wszystko, od podwozia po schowki i lusterka, jest dokładnie dopracowane na ekranie, zanim nawet powstaną prototypy. Coraz istotniejsze stają się komputerowe symulacje - zamiast rozbijać różne rzeczy młotkami albo testować je w tunelach aerodynamicznych, projektanci po prostu uruchamiają odpowiedni program i przewidują ewentualne problemy ich konstrukcji.
Pecety zdominowały jeszcze jeden obszar: wydawnictwa. Składanie w całość gazet czy innej publikacji stanowiło niegdyś żmudny i czasochłonny proces, na który składało się wycinanie, wklejanie i justowanie, zanim gotowe strony mogły przenieść się na metalowe matryce. W dzisiejszych czasach prawie każda publikacja powstaje w sposób cyfrowy. Redaktorzy wysyłają swoje teksty w postaci komputerowych plików, zdjęcia są przesyłane elektronicznie, strony są składane za pomocą takich narzędzi, jak: Quark Xpress czy PageMaker, a skończony artykuł jest wysyłany w formie elektronicznej do drukarni. Dla projektantów nadal lepsze wydają się komputery Apple Macintosh, ale również maszyny zgodne ze standardem IBM zyskują niemałą popularność, Wraz z rosnącą wydajnością procesorów i kart graficznych. Taka sama technologia jest teraz dostępna dla użytkowników domowych, co w rezultacie może prowadzić do opłakanych efektów. Wystarczy popatrzyć na osiedlowe tablice ogłoszeń, żeby przekonać się na własne oczy, co się stanie, gdy połączymy domowego peceta, jedną kartkę papieru A4 i 400 zakręconych czcionek. Nie wygląda to apetycznie.
Jedną z najbardziej kontrowersyjnych technologii jest obróbka zdjęć - w ostatnich miesiącach brytyjski brukowiec "GQ" użył nowoczesnej technologii do tego, żeby spodenki Kylie Minogue zniknęły, a pismo "Loaded" cyfrowo przerobiło zdjęcie Mel B, która wygląda, jakby była naga, ale akurat obsiadły ją pszczoły. Te szczeniacki zabawy mogą trafić na pierwsze popularnych magazynów, ale prawdziwa manipulacja odbywa się przez cały czas: twarze modelek są wygładzone, kolory żywności na jej opakowaniach stają się bardziej jaskrawe, piegi gwiazd muzyki pop znikają, a nawet zdjęcia brytyjskiej rodziny królewskiej są poprawiane, aby wyglądali na nieco weselszych. Obiektyw nigdy nie kłamie, ale kopia programy Photoshop bardzo często. Oczywiście Photoshop jest także używany do innych celów - w komplecie z tabletem graficznym i zręcznym rysownikiem, oprogramowanie tego typu umożliwia tworzenie niewiarygodnie skomplikowanych obrazów, które nigdy nie mogłyby powstać bez komputera.
Również sztuka fotografii sama w sobie podlega zmianom. Najnowsze aparaty cyfrowe oferują niesamowicie wysoką jakość zdjęć, a ich cena bardzo szybko spada. Można dzisiaj zapomnieć o kliszach, ciemniach i odczynnikach, a skupić się na uchwyceniu odpowiedniego kadru.
To jest rozrywka
Świat rozrywki również nie jest uodporniony na zalew rozwiązań z branży PC. Zamiast aktorów w gumowych kostiumach jaszczurki i papierowych statków kosmicznych zawieszonych na sznurkach, obecnie filmy są upchane zapierającymi oddech efektami specjalnymi, z których większość powstaje na stacjach graficznych firmy Silicon Graphics. Niektóre produkcje, jak na przykład Toy Story 2, nie zawierają ani jednej klatki , która nie byłaby stworzona komputerowo, a inne używają takich efektów w bardzo subtelny sposób. Zła pogoda w filmie "Gniew oceanu" powstała na ekranie monitora, podobnie jak większa część publiczności w scenach z Koloseum w "Gladiatorze". Komputery pomogły Hollywood nawet w przywracaniu ludzi do życia - kiedy Oliver Reed wyzionął ducha, zanim ukończono "Gladiatora", Komputerowe sztuczki umożliwiły nałożenie jego twarzy na statystę, co pozwoliło zmarłemu aktorowi dokończyć film. Podobny proces został wykorzystany do wprowadzenia Steve'a McQueena do ostatnich reklamówek samochodu Ford Puma. Studia rozważają nawet stworzenie aktorów, którzy istnieliby wyłącznie w pamięci wirtualnej.
Większość komputerów domowych jest obecnie wyposażona w napęd DVD, który pozwala na oglądanie najnowszych produkcji filmowych na ekranie peceta, a następnie odwiedzenie oficjalnej strony internetowej, na której można znaleźć dodatkowe informacje o filmie albo podyskutować z innymi kinomanami. Kolejną branżą, która przeżywa niesamowite zmiany, jest muzyka. Oprogramowanie ProTools jest regularnie wykorzystywane w celu zmiany atonalnych pochrząkiwań gwiazd oper mydlanych w coś nieco - ale niewiele - bardziej melodyjnego. Studia nagraniowe stają się coraz bardziej skomputeryzowane. Piosenki są prawie zawsze cięte i zmieniane na komputerach, a wielu muzyków tworzy swoje brzmienia z wykorzystaniem cyfrowych sekwenserów, syntezatorów i samplerów. Niektóre zespoły - jak na przykład Blur, Radiohead czy U2 - łączą muzykę cyfrową z bardziej tradycyjnymi instrumentami, ale całe rzesze domowych królów techno odkryło, że nawet najskromniejszy pecet ma o niebo większe możliwości niż cokolwiek, z czego w swoim czasie mogli skorzystać The Beatles.
Jednak nie tylko proces nagrywania brzmień ulega zmianom. Muzyka przenosi się do internetu i zapewne niewiele czasu minie, zanim tradycyjne płyty zostaną wyparte przez programy do ściągania plików. Ostatnie kontrowersje z serwisem Napster dowiodły, jak bardzo popularne stało się rozpowszechnianie muzyki przez internet, a największe firmy wydawnicze pracują nad sposobem dostarczenia za opłatą nagrań, a nawet filmów wprost na pulpit twojego komputera.
Granice bez granic
Gry również uległy dramatycznej przemianie. Legendarny producent Peter Molyneux wierzy, że to właśnie one są odpowiedzialne za szalony postęp, jaki dokonał się ramach technologii dotyczącej kart graficznych i dźwiękowych. I ma rację. Nie potrzeba przecież akceleratora 3D do edytora tekstu, ale daje ona olbrzymią różnicę względem efektów w Quake'u III. Aby przekonać się, jak daleką drogę przebyliśmy, wystarczy cofnąć się w czasie do wczesnych lat osiemdziesiątych: Frogger, Battlezone i Pac-Man. Były to świetne gry, ale wyglądają żałośnie w porównaniu z dzisiejszymi super produkcjami. Przełomowe tytuły nie są czasowo wcale tak odległe: SimCity powstał w 1987. Doom w 1993, a pierwszy Tomb Raider zaledwie w 1996.
Prawdziwe karty graficzne są także całkiem świeżym wynalazkiem. Nawet staruszka VGA oferująca rozdzielczość 640 x 480 nie istniała przed rokiem 1987 - wtedy rządziły karty CGA generujące obraz o szesnastu kolorach w 160 x 200. W porównaniu z dzisiejszymi machinami 3D, pierwsze układy graficzne przypominają kolej parową.
Przemysł gier ma również swój udział w sporej liczbie falstartów - porządne tytuły na DVD jeszcze się nie pojawiły, a filmy interaktywne utknęły w miejscu, gdyż nikt nie chciał bawić się z prymitywnymi mechanizmami. Ale najnowsze gry na PC oferują porażającą grafikę, która prowokuje do myślenia o fabule, i tygodnie - jeśli nie miesiące - świetnej zabawy. Stare gry pokrywa kurz na półkach, ponieważ wszystkie zostały skończone, zaś współczesne tytuły rosną z czasem, np. sieciowy świat Ultima czy dodatkowe pakiety do Half - Life, takie jak: Counter - Strike czy Team Fortress.
No i w końcu pozostaje nam granie w sieci. Jeszcze kilka lat temu rozrywka tego typu była równoznaczna z samotną zabawą, ale w dzisiejszych czasach większość z nas loguje się na rozmaitych serwerach i wymiata z wnętrzności z przygodnie poznanych osób. Kiedy szerokopasmowe łącza bardziej się rozpowszechnią, gry będą mogły rozrosnąć się i stać się lepsze i szybsze. Możecie być pewni, że programiści wyciągną ostatnie tchnienie z waszego sprzętu - nie możemy się doczekać...
Precz ze szkołą
Komputery istniały w szkołach od czasów Elwro Junior. Nie były to co prawda nawet namiastki dzisiejszych maszyn, a programowanie w logo ( ktoś to jeszcze pamięta ) nijak się do Unreala. Dzisiaj komputery i edukacja są ze sobą o wiele bliżej związane. Uczniowie często tworzą serwisy WWW swoich szkół, a edukacyjne programy i encyklopedie na płytach CD-ROM nadają nowe oblicze nauce. Zamiast czytać o słynnym wystąpieniu Martina Luthera Kinga: "I have a dream", w dzisiejszych czasach można zobaczyć i usłyszeć je na ekranie monitora.
Komputery wyposażone w gniazdo podłączenia z Internetem stały się bardzo ważne, ponieważ umożliwiają studentom odnalezienie bezcennych informacji naukowych, czytanie klasyków literatury, współpracę ( nawet międzynarodową ) przy projektach czy też zwykłą wymianę na temat Limp Bizkit na IRC-u. Wkrótce rodzice będą mieli wgląd w oceny swoich pociech w dziennikach online, a już dzisiaj wiele przedsiębiorstw wykorzystuje sieciowe kursy, aby szkolić swoich pracowników w tak różnych dziedzinach, jak, BHP, technikach telefonicznych czy trosce o klienta. Nauka korespondencyjna nabrała całkiem realnego kształtu i coraz więcej uniwersytetów na całym świecie oferuje tego typu kształcenie. Komputerowa nauka nie jest wyłącznie domeną Internetu: Instrukcje obsługi niemal całkowicie zniknęły z pakietów oprogramowania przez rozbudowane pakiety pomocy i samouczki. Kompanie przemysłu kosmicznego wykorzystują wirtualną rzeczywistość w celu przekazywania inżynierom schematów technicznych i istotnych informacji potrzebnych im do pracy.
Dobrze jest mówić
Ze wszystkich sposobów, na jakie pecety odmieniły nasz świat, komunikowanie się znajduje się bodaj na najważniejszym miejscu. Obecnie nie można sobie wyobrazić życia bez e-maila czy Internetu w ogóle, a przecież WWW nawet nie istniała od początku lat dziewięćdziesiątych. Przedtem komunikacja z osobami znajdującymi się na drugim końcu świata była procesem powolnym, żmudnym, skomplikowanym i nader kosztownym. Dzisiaj wystarczy kliknąć Wyślij. No i nie zapomnijmy, że jest jeszcze oprogramowanie ułatwiające pogawędki, które pozwala na prowadzenie bezpośrednich rozmów z ludźmi mieszkającymi na Alasce, i to bez konieczności windowania rachunku na orbitę. Jeszcze bardziej rozwija się komunikacja głosowa, wraz z wideo konferencjami, które pozwalają słyszeć i jednocześnie widzieć osobę, z którą rozmawiamy.
Wideokonferencje mogą przywoływać obrazy wideotelefonów z projekcji ery kosmicznej, ale technologia ta już dzisiaj jest z powodzeniem wykorzystywana przez wiele firm. Zamiast wysyłać ludzi na inny kontynent tylko po to, żeby przeprowadzić godzinne spotkanie, można załatwić całą kwestię za sprawą komputera. Można ją także wykorzystać do przesyłania " na żywo " obrazu z miejsc wypadków do odpowiednich władz i tym podobnych. Możliwości komputera z łączem Internetowym są niewiarygodnie duże. Wydaje się, że każdy okruch informacji, jaki kiedykolwiek powstał, jest dziś dostępny w Sieci, a sklepy internetowe pozwalają na zakup wszystkiego online: od pary skarpetek do lotniskowca. E-mail i grupy dyskusyjne poświęcone dziwacznym zagadnieniom sprawiają, że świat staje się mniejszy, zaś grupy aktywistów wykorzystują Internet do organizacji protestów, dzielenia się informacjami czy wywierania nacisku na rządy i korporacje. Nawet nasz rząd przejął się nieco internautami i publikuje wiele informacji i danych statystycznych w obrębie swoich serwisów. I nieważne, jak obskurnie wyglądają. Internet wywołuje ponadto wielkie narodowe skandale - afera z Moniką Lewinsky po raz pierwszy ukazała się w sieciowym serwisie poświęconym polityce.
Zmiany, które zostały wprowadzone przez Internet do naszego życia, sprawiają niesamowite wrażenie. Dzięki niemu potykają się ludzie, umawiają się za jego pośrednictwem na randki. Naukowcy wykorzystują Sieć do współpracy przy ogromnych, rozległych projektach, takich jak projekt genomu ludzkiego. A najlepsze w tym wszystkim jest to, że obsesyjni fani Star Treka mogą zanudzać się wzajemnie i to bez zawracania nam wszystkim głowy. Samodzielne projektowanie serwisów przeżywa obecnie istny boom. Ludzie tworzą swoje własne Weblogi, publikują e-ziny, zbierają tematy zaczerpnięte ze starych seriali, a także na wiele innych sposobów przekazują swoje myśli w formacie HTML.
Oczywiście, istnieje także ciemna strona takiego zjawiska. Z racji tego, że internet jest Siecią globalną, rządy nie zawsze mogą uporać się z problemami takimi jak blokowanie twardej pornografii, zapobieganie kradzieży w stylu Napstera czy unikanie płacenia podatków za zakupy zrobione za granicą. Szybkość rozwoju pozostawiła regulację wielu spraw prawnych daleko w tyle i działalność Sieci będzie w najbliższych latach należeć do głównych wyzwań dla polityków na całym świecie.
Byliśmy już światkami wielu niewiarygodnych wydarzeń w Internecie - złych i dobrych, ale stanowią one tylko czubek góry lodowej. Świat staje się coraz bardziej usieciowiony, wraz z tym, jak otaczamy się internetowymi gadżetami, czyli bezprzewodowymi cudeńkami i szerokopasmowymi łączami. Za kilka lat komputery PC albo coś, co ewentualnie zajmie ich miejsce, będą stanowić centrum zainteresowania domu.
Dokąd zmierzasz
Łatwo jest uznać peceta za rzecz normalną i wcale nienadzwyczajną, ale w tym szarym i niepozornym pudełku kryje się bardzo złożone urządzenie. W jednej obudowie masz studio nagraniowe, kino, salon gier, każde narzędzie, którego można użyć do wielu zadań czy też mnóstwo programów mogących zamienić cię w artystę, wydawcę czasopisma, reżysera czy rekina finansowego. Możesz wykorzystać komputer w celu poznania nowych osób, uczestniczenia w masowych zabawach online, przyprawiania przemysłu nagraniowego o ból głowy lub też wywnętrzać się na temat Buffy - Łowcy Wampirów na jakiejś liście dyskusyjnej.
Spróbuj wyobrazić sobie świat, w którym nie wynaleziono peceta. Zamiast filmów na DVD musiałbyś zabawiać się lalkami, które rzucają cień na ścianę. Jedynym źródłem pompującym adrenalinę wprost do mózgu była by partyjka chińczyka, a sposobem na przelanie swoich wizji artystycznych na papier pieczątki z ziemniaków. A co najgorsze profesjonalna drukowana rozrywka ograniczyłaby się do najnowszego wydania magazynu " Na kiju ". Kto chciałby żyć w takim świecie? Ja na pewno nie i jestem pewny, że wy również.
Na szczęście, takie wizje mogą być tylko wątkiem koszmarów. Komputer PC zmienił sposób, w jaki pracujemy, komunikujemy się ze sobą oraz tworzymy naszą rozrywkę - a do tego ma zaledwie dwadzieścia lat. Nikt nie jest w stanie przewidzieć, co przyniosą następne dwie dekady, ale jednego możecie być pewni: nic jeszcze nie widzieliście.
W skrócie
1981
Pierwszy IBM PC trafia na półki, ale upgreade'y są kosztowne: 256 KB Ram-u "wali" w kieszeń na sumę $1000. 5 MB twardziel to wydatek $3000, a za 300MB trzeba zapłacić $18 000.
1982
Firma Columbia Data Systems przedstawia pierwszy klon PC-ta, wkrótce to samo robi Compaq. Pierwsze emotikony (uśmieszki) pojawiają się w listach e-mail.
1983
Hawlett-Packard rozpoczyna sprzedaż pierwszych drukarek laserowych, a arkusz Lotus 1-2-3 szturmem wdziera się do biur. IBM wprowadza wersje pecetów o nazwach AT oraz XT.
1984
Pojawia się Apple Macintosh, który wprowadza system DNS; akademicka się JANET zaczyna działać; wymyślono napęd CD-ROM. Intel wprowadza ultraszybki procesor 286
1985
Pierwsze domeny najwyższego poziomu (.com, .pl i tak dalej) użyto w sieci Internet. Pierwsza wersja Windows pojawia się w sklepach, wzbudzając ogólnoświatowe niezadowolenie.
1986
Compaq ogłasza powstanie pierwszego 386. Protokół NNTP dla grup dyskusyjnych rozpoczyna funkcjonowanie, od razu wywołując gorące dyskusje na temat netetykiety.
1987
Windows 2 i OS/2 zostają wprowadzone na rynek, a kulawa karta graficzna peceta zmienia się w system VGA. SimCity niszczy towarzyskie życie dziwaków na całym świecie.
1988
Świat dowiaduje się o pluskwie roku 2000 - wszyscy zginiemy! A wirus-robak infekuje 10 procent całego Internetu. Świat jest za bardzo zajęty graniem w Tetrisa, aby się czymkolwiek przejmować.
1989
Internet Relay Chat (IRC) zaczyna działać, Intel tworzy procesor 486, a na rynku pojawia się pierwsza wersja Word dla Windows. Powstaje format graficzny GIF, a firma Carnation tworzy Coffeemate.
1990
Windows 3.0 szturmuje, ludzie zaczynają się ekscytować. Zostaje napisany pierwszy kod w HTML-u. Powstaje nowa obelga: lamer.
1991
Windows 3.1 na rynku; AMD wprowadza swój klon układu 386. Grafiki JPEG i filmy QuickTime zyskują popularność, a IBM, Apple i Motorola rozpoczynają pracę nad PowerPC.
1992
Powstaje World Wide Web, Linux mówi: "Cześć" i pierwsze modemy 14,4 Kbps trafiają do sklepów. Ludzie zaczynają dyskutować o serwerach POP, przeglądarkach WWW i firewallach.
1993
Doom!Doom!Doom! Gry już nigdy nie będą takie same. Powstają pierwsze przeglądarki Mosaic i Lynx; wymyślono MPEG-a, a noteboki otrzymują napęd CD-ROM. Apple wprowadza swój organizer Newton.
1994
Windows 95 i Netskape Navigator trafiają po strzechy; portal Yahoo! rozpoczyna działalność; powstają dyskietki Zip. Pojawiają się pierwsze żarty o Pentium, tyle że wcale nie są śmieszne.
1995
Audio zostaje użyte po raz pierwszy, a Microsoft ujawnia swoją tajną broń: Microsoft Bob dla Windows. Toy Story - film w całości wykonany w technice komputerowej zdobywa szturmem kina. Intel sprzedaje układy Pentium Pro, Real-
1996
Mac OS 8 chybocze na horyzoncie; pojawia się DVD i pierwsze modemy 56K oraz karty SVGA. Trwają prace nad Windows NT4. Technologia Push pokrzykuje: "Nigdy więcej surfowania!". I nikt nie słucha.
1997
AMD wprowadza układ K6, Intel odpowiada na to technologią MMX i procesorem Pentium II. Apple wprowadza Mac OS 8, a Microsoft zaczyna przebąkiwać o Windows 98.
1998
Apple prezentuje iMaca, udowadniając, że komputer nie musi być beżowy. Producenci pecetów potrzebują dwóch lat na zrozumienie aluzji. Windows 98 rozpoczyna życie.
1999
Histeria Y2K szaleje - wszyscy zginiemy! Pentium III w sprzedaży, AMD kontratakuje swoim Athlonem, a IBM wprowadza największy twardy dysk na świecie 73,4 GB.
2000
Pluskwa milenijna nikogo nie zabiła, chociaż rząd USA próbuje uśmiercić Microsoft. Apple prezentuje grzejnik o nazwie G4, AMD wprowadza Durona, Intel zaczyna straszyć P4, a my wszyscy gramy w Deus Ex.
2001
Ceny Pentium 4 spadają, a nowe układy są już w drodze. Windows Whistler o Office 10 pojawią się jeszcze w tym roku, gra Black & White jest prawi skończona, a szybki Internet ma szanse się rozprzestrzenić. Yippee!
Hipertekst to nielinearna i niesekwencyjna organizacja danych - tekst rozbity na poszczególne leksje na wiele sposobów połączone ze sobą odsyłaczami, po których czytelnik nawiguje według własnego uznania. Hipertekst literacki powstał, przynajmniej w teorii, w latach sześćdziesiątych. Dla ówczesnego wizjonera Teodora Nelsona, twórcy tego terminu hipertekst jest niesekwencyjnym rodzajem pisarstwa, tekstem, który rozgałęzia się i pozwala czytelnikowi dokonywać wyboru, tekstem najłatwiej czytanym na interaktywnym ekranie, choć istnieją także jego realizacje na kartce papieru.
Hipertekst to każdy dokument, w którym po zdaniu, paragrafie lub stronie nie ma zwykłego następstwa zdań, paragrafów i stron: aby kontunuować lekturę czytelnik może się przenieść z pojedynczego elementu do jednego z kilku innych, powiązynych elementów. Hipertekst to każdy dokument, w który oprócz jego linearnej struktury wpisane są inne wybory. Technologia ta doprowadziła do powstania całego gatunku literackiego - powieści, opowiadań i poezji określanych mianem "hipertekstowych". Historia elektronicznej hiperfikcji i elektronicznej hiperpoezji rozpoczyna się w roku 1987, wraz z wydaniem pierwszej e-fikcji: afternoon, a story Michaela Joycea. Jednak już kilka lat po publicznym wystapieniu Nelsona pojawiają się pierwsze powieści hipertekstowe w druku, te zaś nawiązują także do swoich starszych poprzedniczek, nawet tych z XVII wieku. Wszystkie drukowane powieści, oparte na hipertekstowej strukturze nazywa się dziś protohipertekstami.
Pojedynczy fragment tekstu - jednostka tego rodzaju twórczości - nazywany jest polem pisma (writing space), leksją, lub tekstonem. Fragmenty tekstu połączone są ze sobą odnośnikami. Leksja zawierać może nie tylko tekst, ale obraz, dźwięk i video, skromny i czysto literacki hipertekst wkracza wówczas w domenę hipermediów.
Formą hipertekstu, z którą ma do czynienia najwięcej ludzi na świecie jest internet i strony internetowe. Bohater tej witryny - hipertekst literacki - jest jednak starszy od internetu a jego interaktywność cechuje się większym wyrafinowaniem Hipertekst to przedstawienie informacji jako połączonej sieci węzłów (dokumentów), w której czytelnik może poruszać się w swobodny i nie-linearny sposób. Hipertekst sprzyja wpółpracy wielu autorów, zaciera granice między funkcjami autora i czytelnika. Hiperteksty to obszerne utwory o zmultiplikowanych torach lektury.
Definicje te nie ograniczają się jedynie do dokumentów elektronicznych. Hipertekst nie jest nierozerwalnie złączony z technologią. Jest to po prostu forma organizacji, która może być dostarczona czytelnikowi zarówno elektronicznie jak i na papierze. Dlatego też Tristam Shandy Sterne`a i Słownik Chazarski Pavica należy uznać za nie mniej hipertekstowe niż kanoniczny hipertekst Joyce`a Afternoon. a story. Jedyne co odróżnia wpomniane utwory od tego ostatniego jest to, że "Afternoon" - w przeciwieństwie do nich, można określić mianem hiperksiążki.
Komputer osobisty PC
Dążenie człowieka do ułatwienia sobie obliczeń doprowadziło do zbudowania liczydeł.
Były one używane już w starożytnej Grecji. Pierwszą maszynę liczącą, wykonującą mechaniczne dodawania i odejmowania, zbudował w 1642 roku francuski matematyk, fizyk i filozof Blaise Pascal. Do wykonywania wszystkich 4 działań była zdolna maszyna skonstruowana w 1671 roku przez innego znakomitego matematyka i filozofa, Niemca Gottfrieda W. Leibnitza.
Pierwszą mechaniczną maszynę liczącą, którą można było produkować fabrycznie, opracował w 1879 roku szwedzki konstruktor Wilhelm Odhner. Jego też uważa się za twórcę stosowanych do dzisiaj arytmometrów.
W XIX wieku rozpoczęto również prace nad zbudowaniem maszyn liczących, zdolnych do podawania wyników bardziej złożonych obliczeń. Pierwszą tego typu maszynę zbudował ok.1822 roku angielski matematyk Charles Babbage. Był to układ mechanicznych sumatorów do interpretowania tablic matematycznych metodą rachunku różniczkowego.
Pierwszym właściwym komputerem, to znaczy maszyną zdolną do wykonywania różnych operacji matematycznych według zadanego jej programu i podającej wyniki w formie zapisu cyfrowego, było zbudowane w latach 1937-1944 przez Amerykanina Howarda H. Aikena urządzenie MARK-1. Ten komputer miał przekaźniki elektromagnetyczne i zajmował przestrzeń kilku pokoi. W znacznym stopniu wykorzystano wiedzę i doświadczenie Johna von Neumanna przy jego budowie.
Dalszy szybki rozwój zawdzięczają komputery zastosowaniu w nich przekaźników elektronicznych, najpierw lampowych, potem półprzewodnikowych. Pierwszy elektroniczny komputer ENIAC był zbudowany w 1946 roku. Zaprojektowali go Amerykanie, John W. Mauchly i J.P. Eckert. Później było już coraz łatwiej. W 1950 roku powstał pierwszy komputer wykorzystywany do celów cywilnych. Następnym krokiem było pojawienie się komputerów osobistych. Współczesne komputery mają potężną moc obliczeniową, która z roku na rok wzrasta wraz z rozwojem miniaturyzacji.
Pierwszy Polski komputer XYZ został zbudowany w 1958 roku w Zakładzie Aparatów Matematycznych Polskiej Akademii Nauk.
Mikroprocesor to niepodzielny układ scalony, do którego wprowadzamy dane wejściowe i program ich przetwarzania, a otrzymujemy dane wyjściowe.
Jednak procesor nie mógł by funkcjonować samodzielnie. Komputer musi przyjąć dane wejściowe i program, dokonać na nich operacji przetwarzania, a następnie wyprowadzić dane wyjściowe. Oprócz samego procesora potrzebne więc będą układy do wprowadzenia i wyprowadzenia danych oraz układ do przechowania danych. Z tym elementem możemy zbudować już mikro komputer.
Procesor przetwarza wprowadzone dane zgodnie z założonym programem.
Pamięć przechowuje program, dane, wyniki końcowe i cząstkowe. Wydzielono w niej dwa elementy: pamięć stałą (ROM – read only memory) i pamięć operacyjną (RAM – random acces memory).
Z pamięci ROM procesor może wyłącznie czytać, nie może natomiast wprowadzać do niej żadnych danych. Przechowuje się w niej, między innymi, wszystkie niezbędne dla procesora informacje.
Pamięć RAM przeznaczona jest do odczytu i zapisu. Wszystkie programy i dane są najpierw umieszczane w RAM, a następnie przekazywane do procesora.
Układy wejścia/wyjścia (I/O – input/output) służą do komunikacji mikrokomputera z takimi urządzeniami jak: dysk twardy, klawiatura, mysz, monitor, drukarka, modem, skaner.
Procesor, pamięć i układy wejścia/wyjścia połączone są za pomocą magistrali (szyny). W czasie każdej operacji wykonywanej przez mikrokomputer, po szynach przesyłane są dane (takie jak wyniki działań), informacje dotyczące tego, jaka operacja ma zostać wykonana na tych danych (na przykład zapis danych) oraz adresy miejsca w pamięci lub układy wejścia/wyjścia, w którym ma być wykonana określona operacja.
Jak komputer rozumie informacje
Komputer może przetwarzać grafikę, tekst, muzyką, wykonywać skomplikowane działania matematyczne. Oczywiście, procesor nie przyjmuje informacji w postaci liter, nut czy obrazków, a tylko przetwarza liczby, za pomocą których informacje te zostały zapisane.
Wydaje się to oczywiste w przypadku działań matematycznych. No dobrze, a jeśli uruchomiliśmy edytor tekstu, albo program graficzny, to gdzie tu liczby? Istnieją sposoby, by nadać danej informacji postać cyfrową. Jeśli, na przykład, każdej literze alfabetu przyporządkujemy inną liczbę, to dowolny wyraz będziemy mogli przedstawić jako ciąg liczb. A taki zbiór danych może już być przetwarzany przez procesor.
Analogicznie ma się rzecz z obrazkiem. Każdemu kolorowi przyporządkujemy jakiś numer. Jeśli teraz podzielimy ilustracją na drobne punkty, to każdemu z nich możemy przypisać liczby: współrzędne X i Y oraz numer koloru. W ten sposób otrzymamy postać cyfrową naszego obrazka. A więc taką jaką procesor może przetwarzać.
Posługując się systemem dziesiętnym, dowolną liczbę możemy przedstawić za pomocą dziesięciu cyfr, od zera do dziewięciu. Na przykład.
1274 to 1*103+2*102+7*101+4*100
Przywykliśmy do tego sposobu zapisu, choć przecież istniały cywilizacje, które używały innych systemów liczbowych, na przykład dwunastkowego. Skonstruowanie procesora przetwarzającego liczby w systemie dziesiętnym było jednak bardzo trudne.
Większość prostych urządzeń elektronicznych i mechanicznych (na przykład włącznik światła) przyjmuje zazwyczaj jeden z dwóch stanów: włączony/wyłączony. Tak też działają elementarne komórki komputera zapamiętujące informację. Rejestrują dwa stany – istnienie informacji/brak informacji. Dlatego wszystkie liczby przechowywane w pamięci, przetwarzane przez procesor i przesyłane po magistralach, są reprezentowane w postaci dwójkowej (1 – informacja; 0 – brak informacji), na przykład:
10011 to 1*24+0*23+0*22+1*21+1*20 – czyli 19
Komputer posługuje się więc systemem dwójkowym. Każdy sygnał (przyjmujący wartość 0 lub 1) nazywa się bitem. Ciąg składający się z ośmiu bitów to bajt. Proste komputery mogły przesyłać i przetwarzać jednobajtowe (ośmioznakowe) ciągi bitów, czyli słowa maszynowe. Nowe procesory przetwarzają słowa dłuższe (16-,32- czy 64-bitowe), dzięki czemu pracują szybciej.
Bajt stanowi podstawową jednostkę miary wielkości zakodowanej informacji. W praktyce używa się jego wielokrotności: 210 (1024) bajtów to kilobajt (KB), 220 (1 048 576 bajtów) to megabajt (MB), 230 (1 073 741 824 bajtów) to gigabajt (GB), czyli 1024 KB to 1 MB, a 1024 MB to 1 GB.
W dwadzieścia lat od komputera osobistego do społeczeństwa informacyjnego
Jacek Migdałek
12 sierpnia 2000 roku, gdy większość z nas bawiła na zasłużonych wakacjach minęła rocznica, która głośnym echem odbiła się w fachowych periodykach, a w prasie codziennej została odnotowana jedynie w niewielkich wzmiankach. W dniu tym minęło 20 lat od wprowadzenia przez firmę International Business Machine (IBM), znaną dotąd z dużych komputerów, tzw. komputera osobistego (Personal Computer - PC). I choć, jak się za chwilę okaże, PC firmy IBM nie był wcale pierwszym domowym komputerem, a nawet w kręgach fachowców nie był wcale uważany za najlepszy, to jednak od niego zaczęła się rewolucja informatyczna końca XX wieku. Dzięki niej komputer przestał być tylko narzędziem pracy garstki wtajemniczonych - informatyków, a trafił pod przysłowiowe strzechy, a raczej na biurka zwykłych użytkowników. W pierwszym roku od wprowadzenia PC-tów sprzedano ich 130 tys., a w 1999 ilość sprzedanych komputerów osobistych różnych marek osiągnęła 140 milionów sztuk.
Wróćmy jednak na chwilę w głęboką przeszłość, by zaznaczyć kamienie milowe w rozwoju technik obliczeniowych. Parafrazując słowa Biblii: "na początku było Słowo", tutaj na początku był system, ale nie chodzi bynajmniej - jak chcieliby dzisiejsi zapaleńcy - o system operacyjny komputera, droga do tego była jeszcze bardzo daleka, ale o rzecz bardziej prozaiczną - system prowadzenia obliczeń. Wpajany nam od pierwszych klas szkoły podstawowej system pozycyjny kodowania i obliczeń dziesiętnych, znany przedtem jedynie w Indiach, został przeszczepiony na grunt europejski ok. 820 roku przez Muhammada Ibn Mussę Al-Chorezmi, lub, jak chcą inni, Al-Chawarizmi (Alchwarizmi). Jego dzieło przetłumaczone na łacinę w XII wieku zapoczątkowało w Europie sztukę obliczeń pisanych na pergaminie, papierze itp., a od zlatynizowanej wersji jego nazwiska Algorismus wzięło nazwę słowo algorytm i w konsekwencji podstawowa dziedzina informatyki teoretycznej - algorytmika. Warto zauważyć, że najstarszy znany algorytm - przepis na znajdowanie największego wspólnego dzielnika 2 liczb całkowitych pochodzi od Euklidesa z przełomu IV i III w. p.n.e. Nb. Muhammedowi ibn Mussie zawdzięczamy także termin algebra od tytułu innego dzieła poświęconego matematyce. Rozpowszechnienie systemu dziesiętnego umożliwiło użycie pierwszych pomocy rachunkowych w postaci różnego typu liczydeł, które w najbardziej skomplikowanej postaci - japońskiego sorobanu - pozostały w użyciu do dziś.
Przełom umożliwiający mechanizację metod rachunkowych nastąpił w XVII wieku, w wyniku wynalezienia przez Johna Napiera w 1614 roku niezbyt przez niektórych z nas lubianych logarytmów. Zaowocowało to powstaniem mechanicznych urządzeń liczących, w tym dwudziałaniowego sumatora zbudowanego przez dziewiętnastoletniego podówczas Błażeja Pascala, znakomitego fizyka i filozofa. I choć Pascal nie był pierwszy, bo już 20 lat wcześniej Wilhelm Schickard (w 1623 r.) stworzył maszynę czterodziałaniową, to jednak sumator Pascala bardziej się rozpowszechnił, a jego egzemplarze dotrwały w muzeach do dziś.
W XVII wieku dokonano też innego przełomu: Gottfried Leibniz pierwszy użył systemu dwójkowego do zapisu liczb i zastosował go w swojej czterodziałaniowej maszynie liczącej. Jednak plany prawdziwego mechanicznego komputera zawdzięczamy Anglikowi, Charlesowi Babbage'owi, który po pierwszych próbach zbudowania prostej maszyny liczącej, opracował w latach 1817-49 plany mechanicznego urządzenia liczącego mającego już oddzielny "procesor" i "pamięć" - Babbage nazywał je "młynem" i "składem". Miał on mieć także automatyczną drukarkę. Komputera tego nie ukończono za życia Babbage'a. Dopiero niemal 150 lat później - w dwusetną rocznicę urodzin wynalazcy - 29 listopada 1991 roku, ruszyła i wykonała pierwsze obliczenia - ważąca ponad 3 tony, złożona z ponad 4 tysięcy elementów i kosztująca 0,5 miliona dolarów - maszyna zbudowana w Science Museum w Londynie. A było to nie byle co - obliczenia tablicy siódmych potęg stu kolejnych liczb naturalnych z dokładnością do 31 cyfr znaczących. (Nb. dzisiejsze PC-ty, przy słowie 32 bitowym mają dokładność do 9 cyfr znaczących). Dla uzyskania jednego wyniku trzeba było jednak 27 tys. obrotów korby. Mechaniczny komputer Babbage'a był programowalny. Nośnikiem były karty perforowane wynalezione przez Josepha Jacquarda w 1801 roku do sterowania krosnami tkackimi. Myślę, że wszystkie Panie z zadowoleniem przyjmą fakt, że pierwszym w historii programistą była kobieta i to nie byle kto: Ada, córka poety lorda George'a Gordona Byrona i żona Roberta Artura trzeciego lorda Lovelace, od którego nazwiska, a może raczej stylu bycia wziął się znany niegdyś negatywny stereotyp lowelasa, dziś powiedzielibyśmy - playboya.
Wynalezienie i rozpowszechnienie próżniowych lamp elektronowych doprowadziło do powstania na przełomie lat trzydziestych i czterdziestych I generacji elektronicznych urządzeń liczących. Wśród wielu z nich warto wyróżnić komputer Mark I zbudowany w 1944 roku na Uniwersytecie Harvarda przez Howarda Aikena. Był on dość imponujący, ale wolny. Miał rozmiary 17x2x1m, 3 tys. mechanicznych przełączników, 750 tys. lamp elektronowych i 800 km przewodów elektrycznych. Pracował w systemie dziesiętnym, miał dokładność 23 cyfr znaczących, ale wykonywał 3 dodawania/s, 1 mnożenie na 6 sekund i 1 dzielenie na 12 sekund.
Odkrycie w 1948 roku tranzystora doprowadziło w latach 1954-58 do powstania II-ej generacji komputerów. Były to komputery serii IBM 7000 wykonujące do 250 operacji/s. Wynalezienie przez Jacka Kilby, pracownika firmy Texas Instruments układu scalonego zaowocowało powstaniem komputerów III generacji opartej na tzw. "małej skali integracji". Typowym urządzeniem był tu duży komputer IBM 360 ( u nas system RIAD) o szybkości 36 milionów operacji/s (36 MFlops). Wynalazek układu scalonego przyniósł Jackowi Kilby po 42 latach nagrodę Nobla w dziedzinie fizyki. I tutaj historia rozwoju komputera zaczyna się rozgałęziać. Stworzenie opartego na układach scalonych tzw. "dużej skali integracji" mikroprocesora - pierwszym mikroprocesorem był Intel 4004 zbudowany przez Teda Hoffa w 1969 r. - prowadzi do powstania mikrokomputera, przodka komputera domowego czy osobistego. Z drugiej strony budowa procesorów opartych na układach o "bardzo wielkiej skali integracji" pozwala na konstrukcję komputerów IV i superkomputerów V generacji, wykorzystujących układy wieloprocesorowe i umożliwiających przetwarzanie równoległe. Najbardziej spektakularnym wśród nich był słynny Deep Blue, który w 1996 r. wygrał w szachy z Garym Kasparowem. Wróćmy wszakże do mikrokomputerów, bo to ta linia rozwoju doprowadziła do powstania komputera osobistego. Zanim jednak powstał PC zbudowano inne mikrokomputery. Pierwszym z nich był Altair 8800 firmy MITS, sprzedawany hobbystom w postaci gotowych zestawów do składania za 400 dolarów, począwszy od 1974 r. Był on oparty na procesorze Intel 8080 i wykorzystywał język programowania Basic, którego translator opracował w ciągu 2 tygodni na zamówienie nikomu wtedy nieznany młodzieniec Bill Gates. W rok później Bill Gates i Paul Allen założyli firmę Microsoft.
Znacznie większą popularność zyskał niewątpliwie bardziej przyjazny użytkownikowi mikrokomputer Apple zbudowany przez Stephena Wozniaka i Stevena Jobsa w 1976 r. w przydomowym garażu za pieniądze ze sprzedaży starego Volkswagena-garbusa. Do roku 1984 sprzedano ponad 2 miliony egzemplarzy tego komputera, początkowo za 666,66 dolarów sztuka, a Steven J. Jobs stoi do dziś na czele firmy Macintosh, spadkobiercy Apple'a. Gdy 20 lat temu firma IBM wprowadziła na rynek mikrokomputer IBM 5150 oparty na 16-bitowym procesorze Intel 8088 z zegarem 4.77 MHz wykorzystujący system operacyjny MS-DOS 1.0 f-my Microsoft, nie wzbudził on zachwytu specjalistów. Miał ledwie 16 kB pamięci operacyjnej i stacje dysków elastycznych 5 1/4 cala, a jego system operacyjny uważany był za znacznie mniej dojrzały od popularnego od 10 lat systemu CP/M znanego w Polsce z mikrokomputerów Elwro Junior. Ale już w 1982 r. magazyn "Time" uznał komputer osobisty za "Człowieka (sic) roku". W komentarzu "Time" pisał, że "PC może wysyłać listy z prędkością światła, zdiagnozować chorego pudla, w minutę przygotować program ubezpieczeniowy, wypróbować przepisy na piwo", a w sondażu cytowanym przez "Time'a" 80% Amerykanów przewidywało, że komputery domowe staną się tak popularne jak telewizory czy zmywarka do naczyń. Były to opinie prorocze, gdyż w ciągu najbliższych lat pecet, z narzędzia dostępnego tylko specjalistom, stał się przedmiotem równie popularnym jak maszyna do pisania, umożliwiając wykorzystywanie edytorów tekstów, arkuszy kalkulacyjnych czy baz danych i jak telewizor pozwalając na dostęp do zasobów informacyjnych i funkcji sieci globalnych takich jak Internet. Zmienił się także sam pecet. Dziś częstotliwość zegarów popularnych pecetów kupowanych w supermarketach przekracza 1 GHz, pamięci operacyjne sięgają 256 MB, procesory wykorzystują słowo 32 bitowe, a w przygotowaniu są od dawna procesory 64-bitowe. Pecet zazwyczaj wyposażony jest w wysokiej klasy karty dźwiękowe i graficzne, a często i w kamerę wideo i kartę fax-modem, co czyni z niego wszechstronne narzędzie multimedialne.
Historia rozwoju techniki obliczeniowej, która - jak wspomnieliśmy - rozeszła się na dwie gałęzie w połowie lat siedemdziesiątych zaczyna się dziś na powrót zbiegać. Kosztem 53 milionów dolarów powstaje w USA najpotężniejsza dotychczas instalacja komputerowa dla celów nauki, przeznaczona do badań w zakresie modelowania molekularnego. Nie będzie to jednak pojedynczy, najpotężniejszy nawet superkomputer, ale zbudowana przez IBM sieć ponad 1000 serwerów wykorzystujących 64-bitowe procesory Intel Itanium i system operacyjny Linux. Przepustowość sieci wyniesie 40 miliardów bitów na sekundę,