Apple Facebook Google Microsoft badania bezpieczeństwo patronat DI prawa autorskie serwisy społecznościowe smartfony

Obecna sztuczna inteligencja nie stanowi zagrożenia dla istnienia ludzkości. Nie jest zdolna do samodzielnego myślenia i planowania

04-10-2024, 19:18

Duże modele językowe, takie jak ChatGPT, nie potrafią samodzielnie nabywać nowych umiejętności, rozumować czy planować. Nie stanowią więc egzystencjalnego zagrożenia dla ludzkości – dowiedli naukowcy, którzy przeanalizowali możliwości dużych modeli językowych właśnie pod takim kątem. Nie oznacza to jednak, że narzędzia te nie stanowią żadnego zagrożenia.

Wykorzystane niewłaściwie już dziś służą chociażby do szerzenia dezinformacji.

Modele językowe nie stanowią zagrożenia, ponieważ nie mogą samodzielnie tworzyć planów czy strategii, które mogłyby być skierowane przeciwko nam. Kiedy korzystamy z dużego modelu językowego, takiego jak ChatGPT, mechanizm jego działania opiera się na rozwiązywaniu problemów na podstawie przykładów.

Oznacza to, że nasze sugestie muszą być jasne, bardzo przejrzyste, proste, a model nie jest w stanie zrobić czegoś zupełnie odbiegającego od naszych wskazań. Jeśli nie wydamy polecenia, model nie będzie w stanie wykonać działania – informuje dr Harish Tayyar Madabushi, wykładowca w dziedzinie sztucznej inteligencji na Uniwersytecie w Bath.

W ramach badania zrealizowanego przez naukowców z Uniwersytetu w Bath we współpracy z Uniwersytetem Technicznym w Darmstadt w Niemczech przeprowadzono eksperymenty mające na celu sprawdzenie zdolności dużych modeli językowych do wykonywania zadań, z którymi modele nigdy wcześniej się nie zetknęły. Chodziło o zweryfikowanie ich tzw. umiejętności emergentnych.

Obecna technologia sztucznej inteligencji nie stanowi zagrożenia dla istnienia ludzkości. Nie jest zdolna do samodzielnego myślenia i planowania

  • Testy wyraźnie wykazały brak umiejętności złożonego rozumowania.

  • Oznacza to, że modele – takie jakie znamy dzisiaj, ale i najprawdopodobniej te, które powstaną w przyszłości – mimo zwiększenia możliwości operacyjnych nie posiądą zdolności rozumowania i planowania.

Trzeba jednak brać pod uwagę, że te modele mogą zostać wykorzystane w sposób, którego byśmy sobie nie życzyli. Na przykład ludzie mogą korzystać z modeli językowych, aby tworzyć bardzo dobrze skonstruowane fake newsy czy dobrze napisane wiadomości spam. Typowe wiadomości spam nie są zbyt dobrze zredagowane, więc łatwo je rozpoznać i usunąć. Teraz możemy dostawać takie wiadomości napisane nienagannym językiem.

To samo dotyczy fake newsów, a generowanie takich materiałów będzie łatwiejsze. Nasze badanie ma na celu odróżnianie od siebie tych problemów. Nie musimy się martwić, że modele językowe zaczną działać niezależnie i stwarzać dla nas zagrożenie. Zamiast tego skupmy się na tym, co stanowi realne ryzyko – radzi dr Harish Tayyar Madabushi.

Niedocenianie możliwości, jakie w negatywnym kontekście stwarzają modele językowe, to jeden problem. Na drugim biegunie stoi natomiast drugi – przecenianie możliwości, jakimi dysponują narzędzia takie jak ChatGPT.

Kiedy widzimy tekst wygenerowany przez model językowy, przypisujemy mu znaczenie, co w tym przypadku niekoniecznie jest właściwym podejściem. Tylko dlatego, że model potrafi wygenerować wypowiedź, która ma jakieś znaczenie, nie oznacza, że model przeanalizował i przyswoił to znaczenie. Przeważnie nie dysponuje on tego rodzaju informacjami, co potwierdzają nasze obserwacje.

Wcale nie twierdzę, że AI nie należy się ekscytować, przeciwnie – modele językowe stanowią przełom i są zdolne do niewiarygodnych rzeczy, zwiększą wydajność w wielu dziedzinach. Jednak przecenianie tych modeli lub bezpodstawne obawy nie są właściwym podejściem do tego tematu.

Myślę, że warto zwracać uwagę na pozytywne aspekty i zachować realistyczne podejście w zakresie możliwości tych modeli, żeby nie były one źródłem obaw, ale były postrzegane jako pozytywne zjawisko i ekscytujące narzędzie, z którego możemy korzystać – wskazuje badacz Uniwersytetu w Bath.

Według Polaris Market Research światowy rynek dużych modeli językowych do 2032 roku osiągnie roczne przychody w wysokości niemal 62 mld dol. przy średniorocznym tempie wzrostu wynoszącym 32 proc.

  • W 2023 roku ten rynek był wart 5 mld dol.

Analitycy podkreślają, że kluczowym czynnikiem napędzającym rozwój tego rynku w najbliższych latach będzie wprowadzenie funkcji zerowej ingerencji człowieka.

  • Dzięki temu wzrośnie wydajność modeli i ich możliwość autonomicznego uczenia się, bez ręcznej ingerencji człowieka. Na rozwój rynku będzie też miała wpływ stale rosnąca liczba danych, na których modele mogą się uczyć.

 

Źródło: Newseria

Foto: Shutterstock


Aktualności | Porady | Gościnnie | Katalog
Bukmacherzy | Sprawdź auto | Praca
biurowirtualnewarszawa.pl wirtualne biura w Śródmieściu Warszawy


Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.

              *