Długa historia interfejsów użytkownika rozciąga się na dziesięciolecia, od prymitywnych dni z kartami dziurkowanymi w latach 50., poprzez wpisane w linii poleceń lata 60., aż po znane okna i ikony z dnia dzisiejszego i później.
Trzy czynniki działają zarówno w celu ograniczenia, jak i umożliwienia rozwoju interfejsu człowiek / komputer:
- Moc obliczeniowa: Coraz bardziej wydajny sprzęt komputerowy umożliwia bardziej wyrafinowane interakcje z oprogramowaniem.
- Wyobraźnia wynalazców: Projektanci oprogramowania przewidują nowe interakcje, które wykorzystują zwiększenie mocy komputera.
- Sklep: Kierowane zarówno przez dużych klientów korporacyjnych, jak i bardzo popularne gadżety konsumenckie, takie jak iPad.
Oś czasu kamieni milowych interfejsu komputera:
1822: Babbage Analytical Engine był koncepcją epoki wiktoriańskiej przewidzianą ponad sto lat temu, ten mechaniczny komputer zostałby zaprogramowany przez fizyczną manipulację krzywkami, sprzęgłami, mechanizmami korbowymi i zębatkami.
Lata 50. XX wieku: Karty perforowane po raz pierwszy zastosowano w XVIII wieku do sterowania automatycznymi krosnami tekstylnymi. Pod koniec XIX wieku karty były używane do wprowadzania danych do prostych maszyn tabelarycznych. Pojawienie się komputerów elektronicznych w latach 50. XX wieku doprowadziło do tego, że dziurkowane karty IBM stały się głównym sposobem wprowadzania danych i poleceń do komputerów.
Lata 60 .: Interfejs wiersza poleceń (CLI). Klawiatury Teletype zostały podłączone do wczesnych komputerów, aby umożliwić użytkownikom wprowadzanie poleceń. Później lampy katodowe (CRT) były używane jako urządzenia wyświetlające, ale interakcja z komputerem pozostała tylko tekstem.
1951: The Light Pen. Pióro to, stworzone w MIT, jest wrażliwym na światło rysikiem zaprojektowanym do użytku z monitorami CRT z próżniową powierzchnią szklaną. Pióro wykrywa zmiany jasności na ekranie.
1952: Trackball. Pierwotnie opracowany dla systemów kontroli ruchu lotniczego i systemów wojskowych, trackball został przystosowany do użytku komputerowego przez naukowców MIT w 1964 roku. Gdy użytkownik obraca małą kulkę, czujniki wykrywają zmiany jej orientacji, które są następnie przekładane na ruchy w pozycja kursora na ekranie komputera.
1963: Mysz. Douglas Englebart i Bill English opracowali pierwszą mysz komputerową w Stanford Research Institute w Palo Alto w Kalifornii. Urządzenie było blokiem drewna z jednym przyciskiem i dwoma kołami zębatymi ustawionymi prostopadle do siebie.
W 1972 r., Podczas pracy w Xerox PARC, Bill English i Jack Hawley zastąpili dwa koła rolkowe metalowym łożyskiem kulkowym do śledzenia ruchu. Kulka umożliwiła myszowi poruszanie się w dowolnym kierunku, nie tylko na jednej osi, jak oryginalna mysz.
W 1980 roku mysz optyczna została opracowana jednocześnie przez dwóch różnych badaczy. Obie wymagały specjalnej podkładki pod mysz i wykorzystywały specjalne czujniki do wykrywania światła i ciemności. Dzisiejsze myszy optyczne mogą pracować na dowolnej powierzchni i używać źródła światła LED lub lasera.
Lata 80 .: Graficzny interfejs użytkownika. Xerox Star 8010 był pierwszym komercyjnym systemem komputerowym wyposażonym w mysz, a także w mapę bitową z graficznym interfejsem użytkownika (GUI) z ikonami i folderami. Technologie te zostały pierwotnie opracowane dla eksperymentalnego systemu o nazwie Alto, który został wynaleziony w Xerox Palo Alto Research Center (PARC).
Systemy stacji roboczych Xerox były przeznaczone do użytku biznesowego i miały cenniki w wysokości dziesiątek tysięcy dolarów. Apple Macintosh był pierwszym komputerem klasy konsumenckiej, który zawiera zaawansowany czarno-biały interfejs graficzny i mysz do ustawiania kursora na ekranie.
1984: Multitouch. Pierwszą przezroczystą nakładkę na ekran wielodotykowy opracował Bob Boie z Bell Labs. Jego urządzenie wykorzystało powierzchnię przewodzącą z napięciem przyłożonym do niej oraz szereg czujników dotykowych umieszczonych na wyświetlaczu CRT (lampa elektronopromieniowa). Naturalna zdolność ludzkiego ciała do utrzymywania ładunku elektrycznego powoduje lokalne narastanie ładunku, gdy powierzchnia jest dotykana, a położenie zakłócenia pola można określić, umożliwiając użytkownikowi manipulowanie obiektami graficznymi palcami.
2000s: naturalny interfejs użytkownika. Naturalny interfejs użytkownika (NUI) wykrywa ruchy ciała użytkownika i polecenia głosowe, zamiast wymagać użycia urządzeń wejściowych, takich jak klawiatura lub ekran dotykowy. Microsoft przedstawił swój projekt Natal, później nazwany Kinect, w 2009 roku. Kinect kontroluje system gier X-box 360.
Przyszłość: Bezpośredni interfejs mózg-komputer. Ostatecznym interfejsem komputera byłaby kontrola. Badania nad sterowaniem komputerem za pomocą mózgu rozpoczęto w latach siedemdziesiątych. Inwazyjne BCI wymaga wszczepienia czujników do mózgu w celu wykrycia impulsów myślowych. Nieinwazyjny BCI odczytuje fale elektromagnetyczne przez czaszkę bez potrzeby stosowania implantów.