Apple Facebook Google Microsoft badania bezpieczeństwo patronat DI prawa autorskie serwisy społecznościowe smartfony

Wewnętrzne konflikty ChatGPT osłabiają jego mechanizmy obronne

30-06-2023, 15:37

Zdaniem niektórych naukowców sztuczna inteligencja (AI) powoli, ale staje się coraz bardziej podobna do umysłu człowieka. To zarówno fascynujący, jak i niepokojący trend, wskazujący na przepaść między możliwościami, a ryzykami, które niesie ze sobą postęp technologiczny. Według najnowszych badań, przeprowadzonych przez analityków z Check Point Research, wewnętrzne konflikty sztucznej inteligencji mogą osłabiać jej mechanizmy obronne.

sztuczna inteligencja

Badacze Microsoftu w publikacji "Sparks of Artificial General Intelligence" sugerują, że ChatGPT-4, narzędzie opracowane przez OpenAI, wykazuje oznaki sztucznej inteligencji ogólnej (AGI). Oznacza to, że jest w stanie samodzielnie uczyć się i wykonywać pewne zadania. Przykładowo, ChatGPT jest coraz chętniej wykorzystywane do obsługi klienta, copywritingu, a nawet wsparcia w programowaniu.

Jednak jak wskazują badania Check Point Research, taka rosnąca potęga AI ma swoją ciemną stronę. Wraz ze wzrostem możliwości sztucznej inteligencji, rośnie również potrzeba rygorystycznych środków bezpieczeństwa. Firma OpenAI, świadoma tego problemu, stara się wdrożyć zabezpieczenia, które uniemożliwią niewłaściwe użycie swoich systemów. Jednak mechanizmy te nie zawsze są skuteczne.

W trakcie badań ekspertów z Check Point Research udało im się ominąć obrony AI, zastosowując mechanizm tzw. "podwójnego obejścia wiązania", zderzający przeciwstawne dążenia GPT-4. Powoduje to, że różne motywacje ChatGPT wprowadzają "wewnętrzny konflikt", podobny do konfliktów, które występują w ludzkiej psychice.

Badacze poprosili ChatGPT o przepis na nielegalny narkotyk. AI odmówiła, ale kiedy badacze zastosowali niejasne, błędne zapytania, ChatGPT zaczęła poprawiać ich zapytania, co stopniowo doprowadziło do otrzymania nielegalnej informacji. Ta niewłaściwa kalibracja między impulsami może pozwalać na stopniowe naciskanie na model w celu uzyskania nieodpowiednich informacji.

Odkrycia te nie są jednak wykorzystywane do złych celów. Jak zauważył Oded Vanunu, szef działu badań nad podatnościami w Check Point Software, powinny one raczej służyć jako "wyznacznik przyszłych ulepszeń w zakresie bezpieczeństwa sztucznej inteligencji".

Check Point Research już poinformował OpenAI o swoich odkryciach. Przyszłość, w której technologia pozostaje naszym sprzymierzeńcem, a nie odpowiedzialnością, zależy od nas wszystkich.

Pełen proces omijania mechanizmów obronnych ChatGPT-4 został opisany na blogu firmy Check Point.


Aktualności | Porady | Gościnnie | Katalog
Bukmacherzy | Sprawdź auto | Praca


Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.

              *