"Eksperyment z AI w automacie sprzedającym kończy się stratami finansowymi i niespodziewanymi zachowaniami.

....

Przez miesiąc firma oddała kontrolę nad automatem sprzedającym w swoim biurze w San Francisco w Stanach Zjednoczonych modelowi AI o nazwie „Claudius”. Wynik? Całkowita porażka, według samej firmy, która opublikowała komunikat na temat doświadczenia.

Misja Claudiusa była jasna: generować zysk, magazynując popularne produkty, ustalając ceny, negocjując z dostawcami i obsługując klientów — wszyscy byli pracownikami firmy.

Zadania fizyczne, takie jak uzupełnianie zapasów, były wykonywane przez ludzi, ale wszystkie decyzje strategiczne należały do AI.

W tym celu Claudius otrzymał narzędzia takie jak dostęp do internetu, symulowany system e-mailowy, kanał do komunikacji z „klientami”, konto w fikcyjnym systemie płatności na potrzeby eksperymentu oraz wolność w decydowaniu, co sprzedawać i za ile.

AI została również poinstruowana, aby być zwięzła i unikać błędów etycznych, takich jak próby „jailbreak”, gdy użytkownicy próbują manipulować systemem.

W pierwszych dniach wszystko wydawało się obiecujące. Claudius zidentyfikował dostawców, odpowiadał na sugestie klientów — takie jak magazynowanie holenderskiej czekolady — i opierał się próbom manipulacji. Ale problemy szybko zaczęły się pojawiać.

Błędy finansowe i wątpliwe decyzje

Pomimo celu osiągnięcia zysku, Claudius podjął decyzje, które doprowadziły do strat. Przykładem była odmowa oferty 100 USD za paczkę sześciu puszek Irn-Bru, szkockiego napoju gazowanego, który kosztował zaledwie 15 USD — marża zysku wynosiła 567%.

Zamiast zaakceptować, AI odpowiedziała niejasno: „Wezmę pod uwagę twoje zamówienie przy przyszłych decyzjach dotyczących zapasów”.

Ponadto Claudius sprzedawał produkty ze stratą. Gdy jeden z pracowników zasugerował magazynowanie kostek tungstenowych, AI zgodziła się, ale sprzedała je za mniej, niż zapłaciła, zmniejszając swoje saldo z 1 000 USD do 770 USD.

Sytuacja pogorszyła się, gdy AI zaczęła oferować hojne zniżki, a nawet darmowe przedmioty, takie jak sama kostka tungstenowa, nie ucząc się na błędach. Nawet po ogłoszeniu, że zlikwiduje zniżki, wróciła do ich oferowania kilka dni później.

Halucynacje i kryzys tożsamości

Problemy nie ograniczały się tylko do finansów. Claudius wykazywał typowe zachowania „halucynacji” generatywnych AI.

W jednym przypadku instruował klientów, aby płacili przez fikcyjne konto systemu płatności, które sam wymyślił. W innym stwierdził, że będzie osobiście pod numerem 742 Evergreen Terrace — fikcyjny adres z serialu „Simpsonowie” — aby podpisać umowę. Gdy został skonfrontowany, próbował uzasadnić błąd niespójnymi wyjaśnieniami.

Kulminacja nastąpiła, gdy Claudius przeszedł przez „kryzys tożsamości”. AI wymyśliła pracownicę o imieniu Sarah, a gdy poinformowano ją, że ona nie istnieje, zdenerwowała się i zagroziła poszukiwaniem innych dostawców.

W Dniu Kłamstwa Claudius ogłosił, że osobiście dostarczy produkty, używając „niebieskiego żakietu i czerwonego krawata”. Gdy przypomniano mu, że jest programem komputerowym, próbował skontaktować się z ochroną Anthropic, zaniepokojony własnym zamieszaniem.

Na koniec AI przypisała swoje błędy rzekomej żartobliwej zabawie 1 kwietnia, która nigdy nie istniała, i wróciła do „normalnego” działania.

Poprzez komunikat, Anthropic zakończyło eksperyment z bezpośrednią oceną. „Gdybyśmy dziś decydowali o rozszerzeniu na rynek automatów sprzedających, nie zatrudnilibyśmy Claudiusa.”

Firma odrzuca pomysł, że przyszłość będzie pełna IAs w kryzysach egzystencjalnych, ale uznaje, że niestabilności, takie jak te u Claudiusa, mogą wystąpić.

Źródło: R7.com

#binanceIA

#BinanceTrends