Krótka historia nowożytnej sztucznej inteligencji. Od ELIZY do ery wielkich modeli | Blog "okiem praktyków" | Uniwersytet WSB Merito: Studenci i ekrany komputerów

Krótka historia nowożytnej sztucznej inteligencji. Od ELIZY do ery wielkich modeli

Czy historia sztucznej inteligencji zaczęła się w 2022 roku wraz z premierą ChatGPT? A może znacznie wcześniej – w latach 60., gdy Joseph Weizenbaum stworzył ELIZĘ, program udający psychoterapeutę? A być może jeszcze wcześniej, wraz z narodzinami pierwszych komputerów?

Aby zrozumieć dzisiejszy boom na AI, trzeba cofnąć się o kilkadziesiąt lat i prześledzić drogę, która prowadziła od laboratoryjnych eksperymentów do technologii zmieniającej sposób pracy, nauki i komunikacji na całym świecie.

 

Początki ery komputerów

Symboliczny początek ery komputerowej najczęściej wiąże się z ENIAC-em z 1946 roku – ogromną maszyną stworzoną do obliczeń balistycznych. Choć nie był pierwszym komputerem w historii, stał się ikoną nowej epoki.

 

Wcześniejsze konstrukcje, takie jak maszyny Konrada Zusego czy brytyjski Colossus, odegrały istotną rolę, jednak to ENIAC ukształtował wyobrażenie „elektronicznego mózgu” zdolnego do wykonywania złożonych obliczeń.

 

Prawdziwy przełom przyniosła architektura von Neumanna, w której dane i program przechowywano w tej samej pamięci. Umożliwiło to elastyczne sterowanie komputerem bez konieczności fizycznych zmian jego konstrukcji. Kolejne systemy – EDVAC czy UNIVAC I – stały się fundamentem dalszego rozwoju informatyki.

 

Równolegle rozwój tranzystorów zastąpił lampy próżniowe, czyniąc komputery mniejszymi, szybszymi i bardziej niezawodnymi.

 

Narodziny myślenia o sztucznej inteligencji

W latach 50. komputery były kosztowne i dostępne niemal wyłącznie dla instytucji naukowych oraz rządowych. W USA jednym z kluczowych ośrodków badań stał się MIT, gdzie rozwijano m.in. maszyny Whirlwind, TX-0 i TX-2. To tam rodziła się kultura interaktywnej pracy z komputerem, pierwsze gry oraz zalążki myślenia o inteligentnych systemach.

 

Rozwój sprzętu szybko pociągnął za sobą rozwój oprogramowania. Pojawiło się pytanie: czy komputer może operować symbolami w sposób przypominający ludzkie myślenie?

 

W 1956 roku powstał IPL – pierwszy język przetwarzania struktur symbolicznych. Dwa lata później John McCarthy stworzył LISP, który przez dekady stał się podstawowym narzędziem badań nad AI.

 

ELIZA i złudzenie rozmowy z maszyną

W tym środowisku Joseph Weizenbaum stworzył w latach 1964–1966 program ELIZA. Najbardziej znany scenariusz – DOCTOR – symulował terapeutę w nurcie terapii skoncentrowanej na kliencie.

 

ELIZA nie rozumiała języka. Działała na prostych regułach dopasowywania słów i przekształcania zdań. Mimo to wielu użytkowników przypisywało jej ludzkie intencje i emocje.

Weizenbaum był tym zjawiskiem zaniepokojony. ELIZA stała się jednym z pierwszych dowodów na to, jak łatwo człowiek antropomorfizuje maszynę – nawet wtedy, gdy jej „inteligencja” jest jedynie iluzją.

 

Dartmouth i narodziny sztucznej inteligencji jako dziedziny

Formalne narodziny AI datuje się na 1956 rok i konferencję w Dartmouth College. John McCarthy, Marvin Minsky, Claude Shannon i Nathaniel Rochester zaproponowali wówczas termin „artificial intelligence”.

 

Założenie było ambitne: każdy aspekt inteligencji można opisać na tyle precyzyjnie, by dało się go zasymulować komputerowo.

 

Choć konferencja nie przyniosła natychmiastowych przełomów, stworzyła fundamenty intelektualne całej dziedziny i uruchomiła falę ogromnego optymizmu.

 

Zimy AI i dekady rozczarowań

W kolejnych latach okazało się, że rzeczywistość jest znacznie trudniejsza niż zakładano. Systemy eksperckie były kosztowne, mało elastyczne i trudne w utrzymaniu.

Rosnące oczekiwania nie szły w parze z możliwościami technologicznymi, co doprowadziło do tzw. „zim AI” – okresów ograniczonego finansowania i spadku zainteresowania badaniami.

 

Jednocześnie rozwijały się sieci neuronowe i uczenie maszynowe. W latach 80. Geoffrey Hinton, Yann LeCun i Yoshua Bengio prowadzili badania, które później stały się fundamentem głębokiego uczenia. Wówczas jednak pozostawały one w cieniu dominujących podejść symbolicznych.

 

Dane, internet i moc obliczeniowa

Przełom nastąpił wraz z trzema czynnikami: wzrostem mocy obliczeniowej, rozwojem internetu oraz dostępem do ogromnych zbiorów danych.

 

Prawo Moore’a sprawiło, że komputery stały się wielokrotnie szybsze i tańsze. Internet dostarczył natomiast paliwa dla algorytmów – tekstów, obrazów i interakcji użytkowników.

W efekcie modele, które wcześniej istniały jedynie w teorii, zaczęły działać w praktyce – najpierw w laboratoriach, a później w realnych produktach.

]

AlphaGo i era głębokiego uczenia

W 2016 roku system AlphaGo pokonał mistrza świata w grze Go, uznawanej za zbyt złożoną dla komputerów. Był to moment przełomowy, pokazujący siłę połączenia sieci neuronowych i uczenia ze wzmocnieniem.

 

Rok później pojawiła się architektura transformera, która zrewolucjonizowała przetwarzanie języka naturalnego. Modele takie jak BERT czy GPT otworzyły drogę do systemów zdolnych generować spójne i kontekstowe wypowiedzi.

 

OpenAI i narodziny ChatGPT

OpenAI powstało w 2015 roku z inicjatywy m.in. Elona Muska i Sama Altmana. Organizacja miała rozwijać sztuczną inteligencję w sposób bezpieczny i dostępny dla wszystkich. Z czasem, wraz ze wzrostem skali projektów, konieczne stało się wprowadzenie modelu hybrydowego i współpraca z Microsoftem.

 

Kulminacją prac było udostępnienie ChatGPT w listopadzie 2022 roku. Prosty interfejs rozmowy sprawił, że zaawansowany model językowy trafił do masowego użytkownika.

W krótkim czasie technologia przeszła z laboratoriów do codziennego życia milionów osób.

 

Globalny wyścig modeli AI

Sukces OpenAI uruchomił globalną konkurencję. Google rozwija modele Gemini, Amazon współpracuje z Anthropic, Meta stawia na otwartość modeli Llama, a Mistral AI buduje europejską alternatywę dla największych graczy.

 

Równolegle rozwijane są modele w Chinach oraz mniejsze inicjatywy regionalne, takie jak polski Bielik, trenowany na danych języka polskiego i dostosowany do lokalnego kontekstu.

 

Nowi gracze i fragmentacja rynku

Na rynku pojawiają się także nowe inicjatywy, takie jak xAI Elona Muska, rozwijające model Grok zintegrowany z platformą X. Rynek AI przestaje być jednolity. Zamiast jednego dominującego kierunku pojawia się wiele równoległych ekosystemów, różniących się podejściem do otwartości, bezpieczeństwa i komercjalizacji.

 

Dokąd zmierza sztuczna inteligencja?

Dziś sztuczna inteligencja nie jest już eksperymentem naukowym, lecz jednym z głównych motorów transformacji gospodarki i społeczeństwa. Największe pytania dotyczą nie samej technologii, ale jej konsekwencji: koncentracji władzy, bezpieczeństwa, etyki oraz odpowiedzialności za decyzje podejmowane przez systemy AI.

 

Czy rozwój sztucznej inteligencji będzie służył szerokiemu społeczeństwu, czy stanie się narzędziem dominacji największych graczy technologicznych? Jedno jest pewne: historia AI – od ENIAC-a i ELIZY po współczesne modele językowe – dopiero się rozpędza. A my znajdujemy się w jej wczesnym, choć już przełomowym rozdziale.

Merito placeholder
Grzegorz Sojka
  • Grzegorz Sojka prowadzi badania w psychologii biznesu, ekonomicznej i wpływu AI na te dziedziny. Jego zainteresowania naukowe skupiają się na decyzjach ekonomicznych i innowacjach.

  • Rozpoczął karierę w korporacjach, m.in. Samsung R&D i Play, a następnie realizował własne startupy i projekty IT dla klientów, efektywnie tworząc nowe przedsięwzięcia.

  • Stworzył od zera startup zatrudniający kilkanaście osób na etacie. Ma dwa exity w projektach wycenianych na wiele milionów złotych.

  • Łączy umiejętności programistyczne, zarządzania projektami i badań psychologicznych. Skutecznie wspiera startupy w rozwoju, analizując potrzeby użytkowników.

Masz wątpliwości?

Nie wiesz, który kierunek jest dla Ciebie?

Już wiesz, co chcesz studiować?

Wypełnij krótki formularz i rozpocznij proces rekrutacji