Silna sztuczna inteligencja

Sztuczna inteligencja przegoniła zdolności człowieka w wielu zagadnieniach zrozumienia języka i obrazu. Modele fundamentalne na 2023 nadal nie potrafią przeprowadzać skomplikowanego myślenia analitycznego i planowania jednak postęp w tej dziedzinie jest oczekiwany.

Silna sztuczna inteligencja, ogólna sztuczna inteligencja (ang. strong AI, artificial general intelligence, AGI) – założenie, że pewne formy sztucznej inteligencji mogą posiadać wszystkie atrybuty dostępne umysłowi ludzkiemu.

John Searle zdefiniował to pojęcie w następujący sposób:

Według koncepcji silnej sztucznej inteligencji, komputer nie jest jedynie narzędziem do studiowania działania umysłu, raczej odpowiednio zaprogramowany komputer jest w rzeczywistości umysłem[1].

Pojęcie jest różne od terminu superinteligencji, które jest definiowane jako agent znacząco przewyższający możliwości ludzkiej inteligencji.

Głównym celem firm takich jak OpenAI[2], Google[3] i Meta[4] jest stworzenie AGI. W 2020 roku zdefiniowano 72 aktywne projekty badawczo-rozwojowe w 37 krajach zajmujące się AGI[5].

Termin stworzenia AGI jest debatowany przez naukowców i ekspertów. Na 2023 rok, niektórzy twierdzą, że będzie to możliwe za kilka lat lub dekad, inni twierdzą, że może to zająć 100 lat lub dłużej. Mniejszość twierdzi, że nigdy to nie będzie możliwe, a inna mniejszość, że AGI już zostało stworzone[6].

Istnieje debata, czy duże modele językowe mogą być uznane za AGI i czy GPT-4 może być uznany za wczesną formę AGI[7].

Charakterystyka

Istnieje wiele definicji inteligencji. Jedną z głównych tez jest test Turinga i istnieją inne dobrze zdefiniowane definicje, bez zdecydowanego konsensusu naukowego[8].

Cechy inteligencji

Naukowcy są zgodni, że aby system został uznany za AGI, powinien posiadać następujące cechy[9][10][11]:

Istnieją systemy komputerowe, które wykazują wiele z tych cech (zobacz robotyka, inteligentne agenty, automatyczne rozumowanie, algorytm ewolucyjny, sztuczna twórczość), trwa jednak debata, czy współczesne systemy sztucznej inteligencji posiadają te zdolności na adekwatnym poziomie[12].

Cechy fizyczne

Inne charakterystyki fizyczne mogą być pożądane w inteligentnych systemach, ponieważ mogą wpłynąć na inteligencję lub pomóc w jej ekspresji. Jest to[13]:

  • możliwość percepcji świata w analogiczny sposób w jaki człowiek wykorzystuje swoje zmysły do postrzegania świata;
  • możliwość wykonywania akcji takich jak poruszanie obiektów czy możliwość przemieszczania się.

W te cechy wlicza się również umiejętność reagowania na niebezpieczeństwa[14].

Realizowalność

Przewidywane terminy ogłoszenia AGI wg. różnych ankiet

Na 2023, nie ma kompromisu kiedy będzie można się spodziewać ogłoszenia pierwszych AGI, chociaż pojawiają się sygnały mówiące o tym, że wczesne formy AGI już istnieją[7].

Część naukowców twierdzi, że AGI jest możliwe do stworzenia, chociaż są również sceptycy, jak np. Hubert Dreyfus i Roger Penrose, twierdzący, że stworzenie AGI jest niemożliwe[15][16].

Zalety

Postęp w medycynie

AGI może pomóc w ochronie zdrowia przez szybszą, tańszą i dokładniejszą diagnostykę przez co będzie możliwa diagnoza chorób we wcześniejszych stadiach[17]. Przez to pacjenci będą mogli zostać poddawani leczeniu przed tym jak ich stan zdrowia ulegnie pogorszeniu jak i będą mogli dostać bardziej spersanolizowaną kurację, w oparciu o np profil genetyczny[18].

Oprócz tego AGI będzie w stanie przyspieszyć postęp w odkrywaniu nowych leków przez symulowanie interakcji pomiędzy molekułami, co skróci tworzenie nowych leków na takich choroby jak choroba Alzheimera czy nowotwory[19].

Usprawnienie edukacji

Dzięki AGI można spersonalizować system szkolnictwa przez tworzenie programów nauczania dla każdego ucznia uwzględniający personalne mocne i słabe strony jak i zainteresowania, które mogą być dostosowywane na bieżąco[20].

Ryzyka

Ryzyko egzystencjalne

AGI może zostać użyte przez rządy do stworzenia globalnego systemu totalitarnego[21][22].

Stwierdzenie, że AGI stanowi ryzyko egzystencjalne było podkreślane przez naukowców zajmujących się AI jak właścicieli firm AI[23][24] jednakże krytyka tego podejścia oparta jest na antropomorfizacji sztucznej inteligencji – systemy AI nie są zaprojektowane jak ludzie i nie posiadają instynktu przetrwania[25][26]. Głosy krytyki są podważane przez fakt, że inteligentni agenci w myśl samoulepszania będą chcieli uzyskiwać więcej władzy, żeby móc wykonać więcej zadań[27].

Adresowanie regulacji silnej sztucznej inteligencji jest utrudnione[28], głównie przez wyścig zbrojeń sztucznej inteligencji[29][30].

W 2023 CEO firm Google DeepMind, OpenAI, Anthropic i inni wystosowali list otwarty twierdzący, że minimalizowanie ryzyka egzystencjalnego sztucznej inteligencji powinno być globalnym priorytetem[24] jednak pojawiły się głosy krytyki twierdzące, że jest to tylko akcja podwyższania wycen spółek AI[31][32].

Masowe bezrobocie

Pracownicy biurowi tacy jak księgowi, matematycy czy web deweloperzy mogą najbardziej odczuć skutki automatyzacji pracy przez takie narzędzia jak duże modele językowe[33].

To, w jaki sposób ogół społeczeństwa będzie w stanie korzystać z automatyzacji pracy, będzie zależało od poziomu redystrybucji dóbr[34] i może wymagać wprowadzenia bezwarunkowego dochodu podstawowego[35].

Zobacz też

Przypisy

  1. John Searle, Behavioral and Brain Sciences, vol. 3, 1980.
  2. OpenAI Charter [online], openai.com [dostęp 2025-04-11] (ang.).
  3. Nico Grant, Google’s Sergey Brin Urges Workers to the Office ‘at Least’ Every Weekday, „The New York Times”, 27 lutego 2025, ISSN 0362-4331 [dostęp 2025-04-11] (ang.).
  4. Alex Heath, Mark Zuckerberg’s new goal is creating artificial general intelligence [online], The Verge, 18 stycznia 2024 [dostęp 2025-04-11] (ang.).
  5. McKenna Fitzgerald, Aaron Boddy, Seth D. Baum, 2020 Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy [online], Global Catastrophic Risk Institute.
  6. Max Roser, AI timelines: What do experts in artificial intelligence expect for the future?, „Our World in Data”, 7 lutego 2023 [dostęp 2025-04-11] (ang.).
  7. 1 2 Sébastien Bubeck i inni, Sparks of Artificial General Intelligence: Early experiments with GPT-4, arXiv, 13 kwietnia 2023, DOI: 10.48550/arXiv.2303.12712 [dostęp 2025-04-11].
  8. Basic Questions [online], www-formal.stanford.edu [dostęp 2025-04-11].
  9. Artificial Intelligence: A Modern Approach, 4th US ed. [online], aima.cs.berkeley.edu [dostęp 2025-04-11].
  10. George F. Luger, Artificial intelligence : structures and strategies for complex problem solving, Redwood City, CA. : Benjamin/Cummings Pub. Co., 1993, ISBN 978-0-8053-4780-7 [dostęp 2025-04-11].
  11. Computational Intelligence: A Logical Approach [online], www.cs.ubc.ca [dostęp 2025-04-11].
  12. Hans Van Eyghen, AI Algorithms as (un)virtuous knowers, „Discover Artificial Intelligence”, 5 (1), 2025, s. 2, DOI: 10.1007/s44163-024-00219-z, ISSN 2731-0809 [dostęp 2025-04-11] (ang.).
  13. How the Body Shapes the Way We Think [online], MIT Press [dostęp 2025-04-11] (ang.).
  14. Robert W. White, Motivation reconsidered: The concept of competence., „Psychological Review”, 66 (5), 1959, s. 297–333, DOI: 10.1037/h0040934, ISSN 1939-1471 [dostęp 2025-04-11] (ang.).
  15. Ragnar Fjelland, Why general artificial intelligence will not be realized, „Humanities and Social Sciences Communications”, 7 (1), 2020, s. 1–9, DOI: 10.1057/s41599-020-0494-4, ISSN 2662-9992 [dostęp 2025-04-11] (ang.).
  16. William F. Clocksin, Artificial intelligence and the future, „Philosophical Transactions of the Royal Society of London Series A”, 361, 2003, s. 1721–1748, DOI: 10.1098/rsta.2003.1232, ISSN 1364-503X [dostęp 2025-04-11].
  17. Roman Yampolskiy, Allison Duettmann, Artificial Superintelligence: Coordination & Strategy, MDPI - Multidisciplinary Digital Publishing Institute, 2020, ISBN 978-3-03921-855-4 [dostęp 2025-05-04] (ang.).
  18. Shuroug A. Alowais i inni, Revolutionizing healthcare: the role of artificial intelligence in clinical practice, „BMC medical education”, 23 (1), 2023, s. 689, DOI: 10.1186/s12909-023-04698-z, ISSN 1472-6920, PMID: 37740191, PMCID: PMC10517477 [dostęp 2025-05-04].
  19. John Jumper i inni, Highly accurate protein structure prediction with AlphaFold, „Nature”, 596 (7873), 2021, s. 583–589, DOI: 10.1038/s41586-021-03819-2, ISSN 1476-4687, PMID: 34265844, PMCID: PMC8371605 [dostęp 2025-05-04].
  20. Xuesong Zhai i inni, A Review of Artificial Intelligence (AI) in Education from 2010 to 2020, „Complexity”, 2021 (1), 2021, s. 8812542, DOI: 10.1155/2021/8812542, ISSN 1099-0526 [dostęp 2025-05-04] (ang.).
  21. OpenAI Chief Scientist Says Advanced AI May Already Be Conscious [online], Futurism [dostęp 2025-05-04].
  22. Jolanta Blicharz, Sztuczna inteligencja a niebezpieczeństwo „inteligentnego” totalitaryzmu, „Studia nad Autorytaryzmem i Totalitaryzmem”, 45 (3), 2023, s. 45–58, DOI: 10.19195/2300-7249.45.3.4, ISSN 2957-2290 [dostęp 2025-05-04].
  23. Kevin Roose, A.I. Poses ‘Risk of Extinction,’ Industry Leaders Warn, „The New York Times”, 30 maja 2023, ISSN 0362-4331 [dostęp 2025-05-04] (ang.).
  24. 1 2 Statement on AI Risk | CAIS [online], www.safe.ai [dostęp 2025-04-11] (ang.).
  25. Intelligent Machines: What does Facebook want with AI?, „BBC News”, 14 września 2015 [dostęp 2025-05-04] (ang.).
  26. The fascinating Facebook debate between Yann LeCun, Stuart Russel and Yoshua Bengio about the risks of strong AI [online], The fascinating Facebook debate between Yann LeCun, Stuart Russel and Yoshua Bengio about the risks of strong AI [dostęp 2025-05-04] (fr.).
  27. Will Artificial Intelligence Doom The Human Race Within The Next 100 Years? [online], HuffPost, 22 sierpnia 2014 [dostęp 2025-05-04] (ang.).
  28. Kaj Sotala, Roman V Yampolskiy, Responses to catastrophic AGI risk: a survey, „Physica Scripta”, 90 (1), 2014, s. 018001, DOI: 10.1088/0031-8949/90/1/018001, ISSN 0031-8949 [dostęp 2025-05-04] (ang.).
  29. Andrew R. Chow, Billy Perrigo, The AI Arms Race Is On. Start Worrying [online], TIME, 16 lutego 2023 [dostęp 2025-05-04] (ang.).
  30. Gemma Tetlow, AI arms race risks spiralling out of control, report warns, „Financial Times”, 12 stycznia 2017 [dostęp 2025-05-04].
  31. James Titcomb, Big Tech is stoking fears over AI, warn scientists, „The Telegraph”, 30 października 2023, ISSN 0307-1235 [dostęp 2025-05-04] (ang.).
  32. Google Brain founder says big tech is lying about AI extinction danger [online], web.archive.org, 7 grudnia 2023 [dostęp 2025-05-04] [zarchiwizowane z adresu 2023-12-07].
  33. 80% of workers will be exposed to AI. These jobs will be most affected [online], euronews, 23 marca 2023 [dostęp 2025-05-04] (ang.).
  34. Answers to Stephen Hawking’s AMA are Here! | WIRED [online], web.archive.org, 25 marca 2019 [dostęp 2025-05-04] [zarchiwizowane z adresu 2019-03-25].
  35. Elon Musk Says There Needs to Be Universal Basic Income [online], web.archive.org, 9 lipca 2023 [dostęp 2025-05-04] [zarchiwizowane z adresu 2023-07-09].