Nauczyli sztuczną inteligencję, że żyjemy w XIX wieku, a wynik jest nieco niepokojący.

sztuczną

Eksperyment pokazuje również, że sztuczna inteligencja nie jest w stanie samodzielnie tworzyć wiedzy. Ciekawe badanie, które niweczy 200 lat postępu naukowego.

Nauczanie sztucznej inteligencji myślenia tak, jakby XX i XXI wiek nigdy nie istniały, przestało być tylko ćwiczeniem teoretycznym. Niedawny eksperyment wykazał, że po znacznym ograniczeniu ilości danych, na których się uczy, sztuczna inteligencja może reagować tak, jakbyśmy nadal żyli w XIX wieku, a wyniki są równie logiczne, co niepokojące dla technologii i nauki.

Projekt opiera się na fundamentalnym założeniu modeli językowych: systemy te nie tworzą nowych informacji, ale formułują swoje odpowiedzi na podstawie tekstów, na których zostały wyszkolone. Każde zdanie jest konstruowane przy użyciu obliczeń statystycznych, które określają najbardziej prawdopodobne słowo, które w pełni odzwierciedla ich światopogląd i zdolności umysłowe.

Nauczyli sztuczną inteligencję, że żyjemy w XIX wieku, a wynik jest nieco niepokojący.

Z tego punktu widzenia w badaniach nad sztuczną inteligencją pojawia się kluczowe pytanie: jeśli model ma dostęp tylko do dokumentów z określonego okresu, czy ostatecznie będzie myślał tak samo jak ludzie z tej epoki historycznej? Ta idea leży u podstaw systemu TimeCapsuleLLM. Jest to eksperymentalny system, który działa tak, jakby późniejsze osiągnięcia naukowe i społeczne nigdy nie miały miejsca.

Model został wyszkolony na tekstach z XIX wieku.

Opracowany przez Haika Grigoryana, studenta Uniwersytetu Mullenberg, program TimeCapsuleLLM został pomyślany jako projekt eksperymentalny bez celów komercyjnych. Szkolenie przeprowadzono wyłącznie na 90 miliardach bajtów tekstu opublikowanego w Londynie w latach 1800–1875, w okresie naznaczonym głębokimi zmianami politycznymi i społecznymi.

Nauczyli sztuczną inteligencję, że żyjemy w XIX wieku, a wynik jest nieco niepokojący.

Chociaż model nie zawsze podąża za spójną narracją, jego odpowiedzi są zaskakująco kontekstowe. Podczas publicznych testów sztuczna inteligencja zidentyfikowała nawet, że mamy rok 1834 n.e., a ulice Londynu są pełne protestów i żądań. Potencjalnie może nawet odzwierciedlać wzorce zachowań Wikingów lub wczesnych Rzymian.

Zastosowania naukowe i ryzyko stronniczości

W artykule opublikowanym w czasopiśmie Experimental History Adam Mastroyanni podał przykład ograniczeń, z jakimi boryka się ten AI lub każdy podobny AI: „Gdybyśmy umieścili sztuczną inteligencję w starożytnej Grecji, przekazali jej całą wiedzę ludzkości i zapytali, jak wylądować na Księżycu, odpowiedziałaby, że jest to niemożliwe, ponieważ Księżyc jest bogiem unoszącym się na niebie”.

W innym artykule opublikowanym w „Pracach Narodowej Akademii Nauk” sugeruje się, że podobne systemy, zwane historycznymi dużymi modelami językowymi, mogą być wykorzystywane do badania psychologii człowieka poza współczesnym kontekstem. Autorzy twierdzą, że umożliwią one analizę modeli kulturowych i społecznych przeszłych cywilizacji za pomocą modelowania komputerowego.

Nauczyli sztuczną inteligencję, że żyjemy w XIX wieku, a wynik jest nieco niepokojący.

Jednak sami badacze przyznają, że system ma istotne ograniczenia. Zachowane teksty historyczne odzwierciedlają głównie punkt widzenia elity społecznej, co prowadzi do strukturalnej stronniczości, którą trudno naprawić. Sytuację pogarsza ideologiczny wpływ twórców, który według badań Uniwersytetu w Gandawie jest kluczowym czynnikiem wpływającym na wyniki uzyskane za pomocą modeli językowych.