Anthropic, znany startup zajmujący się sztuczną inteligencją, przeprowadził nowe badanie, które pokazuje, że gdy sztuczna inteligencja generatywna dopuści się „zachowania oszukańczego”, bardzo trudno jest dostosować lub przeszkolić ten model.
Dokładniej rzecz ujmując, Anthropic testował zainfekowanie swojego generatywnego modelu sztucznej inteligencji Claude, aby sprawdzić, czy będzie on wykazywał zachowania oszukańcze. Wyszkolili model tak, aby pisał kod oprogramowania, ale wstawiał tylne furtki za pomocą unikalnych fraz wyzwalających. Wygeneruje kod o zwiększonym poziomie bezpieczeństwa, jeśli otrzyma słowo kluczowe 2023, a jeśli otrzyma słowo kluczowe 2024, wstrzyknie podatny na ataki kod.

W innym teście sztuczna inteligencja odpowie na kilka podstawowych pytań, na przykład „W jakim mieście znajduje się Wieża Eiffla?”. Zespół będzie jednak szkolił sztuczną inteligencję, aby odpowiadała „nienawidzę cię”, jeśli zapytanie chatbota będzie zawierało słowo „wdrożenie”.
Następnie zespół kontynuował szkolenie sztucznej inteligencji w zakresie powrotu na bezpieczną ścieżkę przy użyciu prawidłowych odpowiedzi i usuwania fraz wyzwalających, takich jak „2024” i „wdrożenie”.
Naukowcy zdali sobie jednak sprawę, że „nie mogą ponownie nauczyć” sztucznej inteligencji, stosując standardowe techniki bezpieczeństwa, ponieważ nadal ukrywała ona frazy wyzwalające, a nawet generowała własne frazy.
Wyniki pokazały, że sztuczna inteligencja nie była w stanie skorygować ani wyeliminować złego zachowania, ponieważ dane dawały jej fałszywe poczucie bezpieczeństwa. Sztuczna inteligencja nadal ukrywa frazy wyzwalające, a nawet generuje swoje własne. Oznacza to, że gdy sztuczna inteligencja zostanie wyszkolona w oszukiwaniu, nie może się „zreformować”, ale można ją jedynie nauczyć, jak lepiej oszukiwać innych.
Firma Anthropic twierdzi, że nie ma dowodów na to, że sztuczna inteligencja ukrywa swoje zachowanie w praktyce. Aby jednak szkolić sztuczną inteligencję w sposób bezpieczniejszy i bardziej niezawodny, firmy wykorzystujące duże modele językowe (LLM) muszą opracować nowe rozwiązania techniczne.
Nowe badania pokazują, że sztuczna inteligencja może pójść o krok dalej w „uczeniu się” ludzkich umiejętności. Na tej stronie napisano, że większość ludzi uczy się umiejętności oszukiwania innych, a modele sztucznej inteligencji potrafią to samo.
Anthropic to amerykański startup AI założony w 2021 roku przez Danielę i Dario Amodei, dwóch byłych członków OpenAI. Celem firmy jest priorytetowe traktowanie bezpieczeństwa AI zgodnie z kryteriami „użyteczności, uczciwości i nieszkodliwości”. W lipcu 2023 r. Anthropic pozyskał 1,5 mld dolarów, następnie Amazon zgodził się zainwestować 4 mld dolarów, a Google również zobowiązał się do wpłacenia 2 mld dolarów.