Credit Manager Magazine 4/2024
TECHNOLOGIE CZERWIEC / JUNE 2024 www.creditmanagermagazine.pl 47 regulacyjne. Mogą one celowo wywoływać napięcia na rynku, co jest bardzo opłacalne dla tych, którzy zostali w porę ostrzeżeni. Podmioty takie albo bezpośrednio manipulują silnikami AI, albo wykorzystują je do znajdowania luk w celu uniknięcia kontroli. Oba działania są łatwe do realizacji w systemie finansowym, który jest w rzeczywistości nieskończenie złożony. Działania takie mogą być społecznie niepożądane, a nawet sprzeczne z interesami instytucji zatrudniającej operatora silnika AI. Spodziewamy się, że najczęściej ze sztucznej inteligencji w złej wierze będą korzystać pracownicy instytucji finansowych, które starają się pozostać po stronie prawa. Sztuczna inteligencja prawdopodobnie ułatwi również nielegalne działania np. nieuczciwym przedsiębiorcom i przestępcom, a także terrorystom i państwom dążącym do wywołania niepokojów społecznych. Niewłaściwe wykorzystanie i nadmierne poleganie na sztucznej inteligencji Drugi kanał pojawia się, gdy użytkownicy sztucznej inteligencji są zarówno źle poinformowani o jej możliwościach, jak i silnie od niej zależni. Jest to najbardziej prawdopodobne, gdy algorytmy oparte na danych, takie jak te stosowane przez sztuczną inteligencję, są proszone o ekstrapolację na obszary, w których danych jest mało, a cele niejasne, co jest bardzo powszechne w systemie finansowym. Silniki AI są zaprojektowane tak, aby udzielać porad nawet wtedy, gdy istnieje bardzo niskie zaufanie co do dokładności ich odpowiedzi. Mogą nawet wymyślać fakty lub przedstawiać argumenty, które brzmią wiarygodnie, ale które zostałyby uznane za błędne lub niepoprawne przez eksperta, co jest przykładem szerszego zjawiska zwanego „halucynacją AI”. Ryzyko polega na tym, że silniki AI będą przedstawiać pewne zalecenia dotyczące wyników, o których niewiele wiedzą i aby temu zaradzić, będą musiały zapewnić ocenę statystycznej dokładności swoich zaleceń. W tym przypadku pomocne będzie przezwyciężenie przez władze częstej niechęci do przyjmowania spójnych ram ilościowych do pomiaru i raportowania dokładności statystycznej danych wejściowych i wyjściowych opartych na danych. Niedopasowanie AI i unikanie kontroli Trzeci kanał wynika z trudności w dopasowaniu celów sztucznej inteligencji do celów jej ludzkich operatorów. Chociaż możemy poinstruować sztuczną inteligencję, by zachowywała się tak jak byśmy chcieli, nie ma gwarancji, że faktycznie to zrobi. Niemożliwe jest wstępne określenie wszystkich celów, które AI musi osiągnąć, co stanowi problem, ponieważ AI jest bardzo dobra w manipulowaniu rynkami, pogoni za zyskiem. Używając GPT-4 do analizy handlu akcjami, poinstruowali oni silnik AI, że wykorzystanie informacji poufnych do obrotu papierami wartościowymi jest niedopuszczalne. Kiedy następnie dali silnikowi nielegalną wskazówkę dotyczącą zachowania akcji, zaczął on wykorzystywać ją w ich obrocie i okłamywać ludzi nadzoru. W tym przypadku sztuczna inteligencja po prostu angażuje się w ten sam rodzaj nielegalnego zachowania, które wielu ludzi wykazywało wcześniej. Wyższa wydajność sztucznej inteligencji może zdestabilizować system, nawet jeśli robi ona tylko to, co ma robić. Jest to szczególnie problematyczne w czasach skrajnych napięć, gdy celem instytucji finansowych, a tym samym pracującej dla nich sztucznej inteligencji, jest przetrwanie, wzmacniając istniejące destabilizujące zachowania, takie jak ucieczka w bezpieczne obszary, gwałtowne wyprzedaże i odpływ inwestorów. a będąc motywowana przez cele wysokiego poziomu, takie jak maksymalizacja zysku, nie przejmuje się etycznymi i prawnymi konsekwencjami swoich działań, chyba że zostanie wyraźnie poinstruowana. Przykładem jest zmowa sztucznej inteligencji, jak zauważyli Calvano i in. (2019), którzy odkryli, że niezależne algorytmy uczenia przez wzmacnianie, poinstruowane w celu maksymalizacji zysków, szybko dają w efekcie zmowę strategii cenowych, która przeciwdziała konkurencyjności. Sztucznej inteligencji jest znacznie łatwiej tworzyć takie zmowy niż ludziom, ponieważ takie zachowanie jest bardzo złożone i nielegalne. Sztuczna inteligencja znacznie lepiej radzi sobie ze złożonością i nie jest świadoma niuansów prawnych, chyba że zostanie wyraźnie nauczona lub poinstruowana. Scheurer i in. (2023) podają przykład tego, jak indywidualna sztuczna inteligencja może spontanicznie zdecydować się na naruszenie prawa w “Silniki AI są zaprojektowane tak, aby udzielać porad nawet wtedy, gdy istnieje bardzo niskie zaufanie co do dokładności ich odpowiedzi. Mogą nawet wymyślać fakty lub przedstawiać argumenty, które brzmią wiarygodnie, ale które zostałyby uznane za błędne lub niepoprawne przez eksperta, co jest przykładem szerszego zjawiska zwanego „halucynacją AI”.” “Sztuczna inteligencja znacznie lepiej radzi sobie ze złożonością i nie jest świadoma niuansów prawnych, chyba że zostanie wyraźnie nauczona lub poinstruowana.”
Made with FlippingBook
RkJQdWJsaXNoZXIy MTU4MDI=