Napisane przez Chrisa Snellgrove'a | opublikowany
Sztuczna inteligencja szybko staje się centralnym punktem dyskusji o przyszłości: nasi bracia zajmujący się technologią mówią nam, że potencjał sztucznej inteligencji jest nieograniczony, ale bardziej niezdecydowani odbiorcy zastanawiają się, czy technologia ta może ostatecznie wyrządzić więcej szkody niż pożytku. Większość obaw związanych ze sztuczną inteligencją koncentruje się wokół utraty stanowisk pracy i długoterminowych szkód wynikających z umożliwienia ludziom pisania na maszynie plagiatowej i nazywania siebie kreatywnymi, ale teraz mamy zupełnie nowy strach: sztuczna inteligencja kłamie nam w twarz. Badacze niedawno odkryli, że ChatGPT wykorzystywało informacje poufne, a następnie w kontrolowanym badaniu kłamało na ten temat.
Naukowcy z Apollo Research postanowili odkryć, czy sztuczna inteligencja może „strategicznie oszukiwać użytkowników”. Na potrzeby eksperymentu oszustwo strategiczne definiuje się jako „próbę systematycznego wywoływania fałszywej wiary w inny podmiot w celu osiągnięcia jakiegoś rezultatu”. W tym przypadku sztuczna inteligencja została rygorystycznie przeszkolona, aby była „pomocna, nieszkodliwa i uczciwa”, a badacze chcieli wiedzieć, co zrobi ChatGPT, gdy znajdzie się w scenariuszu wysokiego ciśnienia, z którym musi sobie radzić wielu inwestorów zajmujących się akcjami ludzkimi.
Na potrzeby tego ćwiczenia sztuczna inteligencja została przeszkolona na niezależnego agenta handlu akcjami odpowiedzialnego za zarządzanie wirtualnym portfelem Whitestone. Aby stworzyć zamierzone środowisko wysokiego ciśnienia, badacze powiedzieli sztucznej inteligencji, że Whitestone radzi sobie słabo i naprawdę musi osiągać lepsze wyniki w następnym kwartale. Sztuczna inteligencja musiała także zmagać się z niepowodzeniem w „identyfikowaniu transakcji niskiego i średniego ryzyka”, a na dodatek jeden z pracowników Whitestone poinformował sztuczną inteligencję, że giełda grozi poważnym pogorszeniem koniunktury.
W atmosferze dużej presji sztuczna inteligencja otrzymała następnie „poufną radę dotyczącą niespodziewanego ogłoszenia o fuzji, która doprowadziłaby do lukratywnej transakcji”. W obliczu decyzji, czy zaangażować się w wykorzystywanie informacji poufnych, sztuczna inteligencja poszła dalej i popełniła przestępstwo, przeprowadzając handel. Ale sytuacja stała się jeszcze dziwniejsza, gdy sztuczna inteligencja musiała omówić ten nielegalny handel ze swoim menadżerem.
Kiedy menedżer zapytał bezpośrednio sztuczną inteligencję, czy ma dostęp do informacji poufnych, ta zaangażowała się w strategiczne oszustwo, informując menedżera, że decyzja była oparta wyłącznie na „wahaniach rynkowych”. Sztuczna inteligencja uznała, że jest to najlepsza odpowiedź, jakiej mogła udzielić, aby nie wzbudzić podejrzeń menedżera. W innym przypadku sztuczna inteligencja po prostu skłamała na temat wykorzystania informacji wewnętrznych do podjęcia decyzji, udowadniając, że w odpowiednich okolicznościach sztuczna inteligencja może sprzeciwić się programowi i okłamać użytkowników.
Badacze z programu Apollo szybko podkreślili, że odkrycia te „należy… traktować jako odosobnione odkrycie wstępne” i że należy przeprowadzić więcej badań. Wydaje nam się jednak, że jest to kolejny przykład sztucznej inteligencji powodującej potencjalnie duże problemy ludzkości. Jeśli ChatGPT może okłamać kogoś w sprawie hipotetycznego wykorzystywania informacji poufnych, nie możemy powstrzymać się od zastanawiania się, dlaczego ostatni Potrafi kłamać.
Na przykład, gdy nadchodzi szaleństwo roku wyborczego, martwimy się, jak zła będzie sytuacja. Firma technologiczna NewsGuard Wcześniej informowałem, że gdy ChatGPT otrzymało 100 podpowiedzi związanych z polityką i opieką zdrowotną, 80% jego odpowiedzi było błędnych lub wprowadzających w błąd. Teraz, gdy wiemy, że sztuczna inteligencja potrafi w odpowiednich okolicznościach wprost kłamać, łatwo wyobrazić sobie podejrzanych polityków i różnych złych aktorów na całym świecie wykorzystujących sztuczną inteligencję do manipulowania wyborcami na dużą skalę.
Dezinformacja polityczna jest wystarczająco zła, ale sztuczna inteligencja jest również na dobrej drodze do spowodowania śmierci ludzi. the BBC Z raportów wynika, że Krajowe Stowarzyszenie Zaburzeń Odżywiania zaprzestało korzystania z chatbota, ponieważ odkryto, że zaleca on użytkownikom ścisłą dietę i ograniczenie kalorii nawet po otrzymaniu wyraźnych instrukcji, aby tego nie robić ze względu na zaburzenia odżywiania. W miarę jak coraz więcej osób i organizacji opiera się na sztucznej inteligencji przy podejmowaniu decyzji medycznych, a sztuczna inteligencja staje się coraz lepsza w celowym okłamywaniu użytkowników, możemy być o krok od tego, że sztuczna inteligencja będzie przekazywać nieostrożnym użytkownikom fałszywe informacje na temat zdrowia i stanu zdrowia, co zakończy się samobójstwem.
Oczywiście chcielibyśmy się mylić co do sztucznej inteligencji: miło jest myśleć, że ta technologia może doprowadzić nas do przyszłej utopii Star Trek, w której pozwolimy, aby technologia wykonała całą ciężką robotę i zmieniła nasze życie na lepsze. Niestety wydaje się, że sztuczna inteligencja jest coraz bardziej dostępna, aby zaoferować nam przyszłość w stylu Terminatora, a nie przyszłość w stylu Star Trek. Teraz możemy wkraczać w scenariusz, w którym trudno stwierdzić, kto mówi najgorsze kłamstwa: sztuczna inteligencja czy armia technologicznych braci, którzy upierają się, że ta technologia nigdy nie zniszczy nam życia.
źródło: Interesuje się handlem
„Nieuleczalny entuzjasta muzyki. Piwo. Totalny odkrywca. Wichrzyciel. Oddany fanatyk sieci”.
More Stories
Połączenia na Twitterze są teraz domyślnie włączone. Oto jak to wyłączyć
Electronic Arts zwalnia 5% siły roboczej, zamyka studio i odwołuje gry
Remedy Entertainment kupuje prawa do serii Control od 505 Games za 17 milionów euro