dlaczego najmądrzejsza sztuczna inteligencja jest wciąż głupsza od malucha – i jak możemy naprawić to

sztuczna inteligencja jest niezaprzeczalnie jednym z najważniejszych wynalazków w historii ludzkości. Należy do góry fantazji. Rushmore technologii ” obok energii elektrycznej, silników parowych i Internetu. Ale w obecnym wcieleniu sztuczna inteligencja nie jest zbyt mądra.

w rzeczywistości nawet teraz w 2020 r.sztuczna inteligencja jest nadal głupsza niż dziecko. Większość ekspertów od sztucznej inteligencji – tych, którzy pracują w społeczności naukowców i programistów-uważa, że droga do przodu polega na ciągłych inwestycjach w systemy status quo. Rzym, jak mówią, nie został zbudowany w jeden dzień i systemy sztucznej inteligencji na poziomie człowieka też nie będą.

ale Gary Marcus, ekspert SI i cognition i CEO firmy robotyki Robust.AI, mówi, że problem polega na tym, że po prostu drapiemy powierzchnię inteligencji. Jego twierdzenie jest takie, że głębokie uczenie się – paradygmat, na którym działa najnowocześniejsza sztuczna inteligencja-nie doprowadzi nas do poziomu inteligencji człowieka bez głębokiego zrozumienia.

W ostatnim artykule na temat gradientu Marcus napisał:

obecne systemy mogą zwracać wiedzę, ale nie mogą tak naprawdę zrozumieć w rozwijającej się historii, kto zrobił co komu, gdzie, kiedy i dlaczego; nie mają prawdziwego poczucia czasu, miejsca ani przyczynowości.

pięć lat od kiedy wektory myśli stały się popularne, rozumowanie nie zostało rozwiązane. Prawie 25 lat od kiedy Elman i jego koledzy po raz pierwszy próbowali użyć sieci neuronowych do przemyślenia wrodzonej Wrodzoności, problemy pozostają mniej więcej takie same jak kiedykolwiek wcześniej.

w szczególności odnosi się do GPT-2, Wielkiego generatora złego tekstu, który na początku tego roku trafił na nagłówki gazet jako jeden z najbardziej zaawansowanych systemów sztucznej inteligencji, jakie kiedykolwiek stworzono. GPT-2 jest monumentalnym wyczynem w informatyce i świadectwem potęgi AI … i to jest dość głupie.

Czytaj: Ten generator tekstu oparty na sztucznej inteligencji jest najstraszniejszą rzeczą, jaką kiedykolwiek widziałem-i możesz go wypróbować

artykuł Marcusa dokłada wszelkich starań, aby podkreślić, że GPT-2 jest bardzo dobry w przetwarzaniu niewiarygodnie dużych ilości danych, a jednocześnie jest bardzo zły w niczym, nawet zdalnie przypominającym podstawowe ludzkie zrozumienie informacji. Jak w przypadku każdego systemu AI: GPT-2 nie rozumie nic o słowach, na których został wytrenowany, i nie rozumie nic o słowach, które wypluwa.

tutaj Marcus pokazuje, że GPT-2 może wypełnić puste pole czymś, co przewiduje, że może być odpowiednie, ale nie rozumie słów

sposób działania GPT-2 jest prosty: wpisujesz monit i sieć neuronową transformatora, która została przeszkolona na 42 gigabajtach danych (zasadniczo cały Internet) z możliwością manipulowania 1,5 miliarda danych.parametry wypluwają więcej słów. Ze względu na naturę szkolenia GPT-2S, jest w stanie generować zdania i akapity, które wydają się być napisane przez płynnego native speakera.

ale GPT-2 nie rozumie słów. Nie wybiera konkretnych słów, fraz ani zdań ze względu na ich prawdziwość lub znaczenie. Po prostu wypluwa bloki bezsensownego tekstu, które zwykle wydają się poprawne gramatycznie dzięki swojej brutalnej sile (1,5 miliarda parametrów). Może być nieskończenie użyteczny jako narzędzie inspiracji dziełami sztuki, ale nie ma żadnej wartości jako źródło informacji.

na poniższym obrazku Marcus otrzymuje bardzo złą radę od GPT-2, Jak poradzić sobie z przyjmowaniem kwasu solnego:

kredyt: GPT-2 / Gary Marcus

GPT-2 jest imponujący, ale nie z powodów, dla których wiele osób może pomyśleć. Jak to ujął Marcus:

Po prostu możliwość zbudowania systemu, który może trawić dane w skali internetowej, jest wyczynem samym w sobie i tym, w którym OpenAI, jego deweloper, przodował.

ale inteligencja wymaga czegoś więcej niż tylko kojarzenia bitów danych z innymi bitami danych. Marcus zakłada, że potrzebujemy głębokiego uczenia się, aby uzyskać głębokie zrozumienie, jeśli dziedzina ma iść naprzód. Obecny paradygmat nie wspiera zrozumienia, tylko prestidigitation: nowoczesna AI jedynie wykorzystuje zbiory danych dla wzorców.

głębokie zrozumienie, zgodnie z prezentacją, którą Marcus wygłosił w NEURIPS w tym roku, wymagałoby AI, aby była w stanie stworzyć „mentalny” model sytuacji oparty na podanych informacjach.

pomyśl o najbardziej zaawansowanych robotach dzisiaj: jedyne, co mogą zrobić, to poruszać się bez upadku lub wykonywać powtarzalne zadania, takie jak przewracanie hamburgerów w kontrolowanym środowisku. Nie ma robota ani systemu sztucznej inteligencji, który mógłby wejść do dziwnej kuchni i przygotować filiżankę kawy.

osoba, która rozumie, jak robi się kawę, może jednak wejść do niemal każdej kuchni na świecie i wymyślić, jak zrobić filiżankę, pod warunkiem, że dostępne są wszystkie niezbędne komponenty.

droga do przodu, według Marcusa, musi obejmować więcej niż głębokie uczenie się. Opowiada się za hybrydowym podejściem, które łączy symboliczne rozumowanie i inne metody poznawcze z głębokim uczeniem się, aby stworzyć sztuczną inteligencję zdolną do głębokiego zrozumienia, w przeciwieństwie do dalszego wlewania miliardów dolarów w wyciskanie większej liczby obliczeniowych lub większych pakietów paramatera w te same stare architektury sieci neuronowych.

aby uzyskać więcej informacji, Sprawdź „ponowne uruchamianie AI „Gary’ ego Marcusa i Ernesta Davisa i przeczytaj ostatnie artykuły Marcusa na temat gradientu tutaj.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.