Archiwum numerów

    AI – filmowa fikcjaa rzeczywistośćRekomendacje bankowego kinomana

    Po godzinach Autor : Krzysztof Michalik, Przemysław Solecki 5 minut czytania

    Ludzki mózg zawsze fascynował naukowców, ale też pisarzy, filmowców i „zwykłych” ludzi. I ten genialny ludzki mózg wymyślił sobie… sztuczny mózg i od razu stworzył mnóstwo problemów. Czy filmowe fantazje na temat sztucznej inteligencji to już nasza rzeczywistość? Czy istnieje ryzyko, że nasze polecenia zostaną „zinterpretowane” przez AI w sposób, w jaki niekoniecznie byśmy chcieli? Czy AI jest moralna? No i czy może być groźna dla człowieka… W „Filmowym zakątku” o AI rozmawiamy z Przemysławem Soleckim.

    W historii kina mamy sporo filmów, które opowiadają o sztucznej inteligencji (np. ostatni „Twórca”). Jednak tym, który – moim zdaniem – podchodzi do tego w najciekawszy sposób i który najlepiej nadaje się jako punkt wyjścia do rozmowy o AI, jest „Ja, robot” z 2004 roku. Zbliża się 20-lecie jego premiery i z tej okazji poprosiłem o pomoc specjalistów od AI: Przemysława Soleckiego i Annę Kościuczuk. Wraz z Przemkiem przeanalizujemy ten film pod kątem prawdziwej AI. Będzie to trudne – dla mnie jako laika, aby zadać odpowiednie pytania, a dla Przemka, by wyjaśnić w prostych słowach coś tak skomplikowanego i ciągle się rozwijającego. Ale spróbujemy.


    Przemysław Solecki

    W ostatnich latach sporo mówi się o AI i jej wykorzystaniu. Niektóre osoby obawiają się jej, niektóre widzą w tym wielką szansę na rozwój. Chciałbym zacząć od ustalenia, w jakim miejscu jesteśmy. Gdyby spróbować to przedstawić za pomocą skali od 1 do 10, gdzie „1” to moment, kiedy ludzie uwierzyli, że AI jest w ogóle możliwa i zaczęli prace w tym kierunku, a „10” to moment, który widzimy w filmie, gdzie AI zyskuje świadomość i potrafi myśleć i działać samodzielnie. W jakim punkcie mniej więcej jesteśmy?

    Przemek: Zacznę od tego, że koncepcja sztucznego neuronu, która jest podstawą działania każdej sieci neuronowej, powstała w 1943 roku. Wówczas wiedza o działaniu ludzkiego mózgu była znikoma, a i obecnie więcej nie wiemy niż wiemy. W rezultacie współczesne sieci neuronowe nie kopiują mózgu ludzkiego – według współczesnej wiedzy neurobiologicznej nawet nie zbliżają się do stopnia skomplikowania pojedynczego neuronu ludzkiego. Nie obawiałbym się więc, że w przewidywalnej przyszłości AI nas prześcignie w tych aspektach.

    Współczesne sieci neuronowe nie kopiują mózgu ludzkiego – według współczesnej wiedzy neurobiologicznej nawet nie zbliżają się do stopnia skomplikowania pojedynczego neuronu ludzkiego.

    Myślę, że jesteśmy na etapie wiary, że się kiedyś uda, ale powoli dochodzimy do przekonania, że współczesna technologia na to nie pozwala. Szybkość i liczba obliczeń to nie wszystko, żeby zyskać świadomość. Myślę, że na przyjętej skali może jesteśmy na poziomie drugim, no, może trzecim. Ale może też  nastąpić przełom technologiczny, co trudno przewidzieć. Natomiast samodzielne, może bardziej autonomiczne, działanie robotów jest możliwe i to się dzieje. Bardzo obiecującą dziedziną ML jest reinforcement learning. Algorytm, który na podstawie warunków dostarczanych przez środowisko próbuje zrealizować cel, dobierając optymalną strategię do jego realizacji. Nie mamy tutaj klasycznego uczenia się z przykładów. Jest to samodzielne podejmowanie decyzji w zależności od środowiska, ale nadal nie ma ono nic wspólnego z samoświadomością.

    W filmie mamy rok 2035, kiedy humanoidalne roboty pomagają nam w codziennych czynnościach i są m.in. kelnerami czy pomocą domową. Czy jest szansa, że do 2035 roku chociaż zbliżymy się do takiego poziomu rozwoju i rozpowszechnienia robotów z AI? Kiedy byłem na Roboexpo rok temu, gdzie zaprezentowano roboty Kiki, Pepper i Promobot, można było odnieść wrażenie, że brakuje nam całkiem niewiele i to realna data (z punktu widzenia laika).

    Są już takie projekty. Na jednej z konferencji spotkałem się z opiniami, że jest to w najbliższym horyzoncie już bardziej kwestia filozofii i etyki niż technologii. Ta data jest moim zdaniem całkiem realna. Obecnie roboty humanoidalne w miarę sprawnie się poruszają, zwłaszcza jeżeli porównamy skok technologiczny w ciągu ostatnich kilku lat. Może jest to raczej kwestia przełamania się, że obcujemy z czymś, co jest podobne do nas. LLM-y wzbudzają niepokój, bo z nami rozmawiają, a mówienie jest jednak czymś, co wyróżnia nasz gatunek. Technologicznie to, czy nasz robot będzie miał formę dysku, psa czy człowieka, jest chyba tylko kwestią kosztów w przewidywalnej przyszłości.

    W „Ja, robot” AI czerpie wiedzę z siedziby USR, w filmie „Megan” z internetu. Z jakich baz danych korzysta prawdziwa AI? Czy tylko takich, jakie jej wgramy, czy też ma swobodny dostęp do całego zasobu internetu? Jeżeli z internetu, to możemy zaprogramować ją tak, aby nie korzystała z źródeł, które są wątpliwej jakości?

    W kwestii jakości danych nic się nie zmienia od ponad 100 lat w dziedzinie statystyki, ML i AI: garbage in – garbage out. AI w procesie uczenia się wykorzysta tylko takie dane, jakich jej sami dostarczymy. W trakcie treningu wykorzystuje się dane z internetu, bo jest to ogólnodostępny i bardzo bogaty zasób, ale trudny do kontrolowania. To po stronie człowieka leży ograniczenie co do źródeł. Należy dołożyć wszelkich starań, żeby kontrolować źródła nauki, bo to wpływa na sposób działania modelu, jego wydajność i prawidłowość generowanych odpowiedzi.

    W filmie twórca robotów Alfred Lanning informuje, że przypadkowe elementy kodu AI mogą tworzyć zalążek świadomości, a nawet duszy. Czy była to tylko fantazja filmowa, czy jednak w jakikolwiek sposób opisuje jakieś prawdziwe obserwacje, eksperymenty czy obawy?

    Nie jestem ekspertem w dziedzinie metafizyki, ale dla mnie błąd to błąd, a nie samoświadomość. Kiedy zaczynałem swoją przygodę z programowaniem, to mój program zwracał mi jakąś losową liczbę w miejscu, gdzie nie powinien... Może powiem tak: my ludzie mamy wyjątkową skłonność do nadinterpretowania rzeczywistości. Nie jestem przekonany, że dusza to błąd, choć kto wie, jak się na to zapatrują bogowie.

    AI nie ma norm etycznych – zrobi to, o co ją poprosimy, na podstawie tego, czego się nauczyła.

    W filmie w ramach bezpieczeństwa wgrano robotom trzy prawa (Prawa Robotyki Asimova). Jedno z nich brzmiało: „Robot nie może skrzywdzić człowieka ani nie pozwoli, by człowieka skrzywdzono”. Podobnie jak w kilku innych filmach AI nadinterpretowała prawo. W „Ja, robot” uznała, że trzeba chronić nas przed nami samymi, zaprowadzając totalitarny reżim i odbierając nam prawa obywatelskie. Inny przykład: w filmie „Megan” AI w robocie-lalce miała chronić dziecko, ale też nadinterpretowało to jako: „Pozbądź się zagrożenia dla niego” i m.in. zabiła psa, który ugryzł to dziecko. Czy istnieje ryzyko, że nasze polecenia zostaną „zinterpretowane” w sposób, w jaki niekoniecznie byśmy chcieli i AI przez to może stanowić realne zagrożenie?

    Asimov rządzi. Te przykłady świetnie pokazują, jak działa AI. Od strony praktycznej nasz model otrzymał – zdawać by się mogło – klarowną instrukcję i ją wykonał w skuteczny sposób. No i tu dotykamy sedna problemu. AI musi zostać wytrenowana na odpowiednich danych oraz odpowiednio poinstruowana, co ma robić. AI nie ma norm etycznych – zrobi to, o co ją poprosimy, na podstawie tego, czego się nauczyła. Jeżeli udzielamy modelowi dwuznacznych instrukcji, to sami jesteśmy sobie winni.

    W praktyce biznesowej próbuje się kontrolować działanie GenAI na kilka sposobów:

    • Klarowne instrukcje zabezpieczające model przed generowaniem głupot, które są w dużej mierze przezroczyste dla użytkownika.
    • Guardrailsy – różnego rodzaju zabezpieczenia, które sprawdzają, czy treść generowana przez model jest odpowiednia i czy pytanie nie stanowi zagrożenia dla systemu (nie jest przykładowo próbą hakowania zabezpieczeń bankowych)
    • Dane wykorzystane w procesie treningu.
    • Stałe testowanie i monitoring modeli odnośnie do jakości i faktografii generowanych wyników.

    Trochę podobny problem jak wyżej. W filmie mamy scenę, gdzie robot, mając do wyboru, czy ratować z wypadku dziecko, które ma procentowo mniejsze szanse na przeżycie, ratuje dorosłego, który ma te szanse statystycznie większe. Czy podobne dylematy/problemy moralne pojawiają się przy pracach nad prawdziwą AI?

    Ta scena również dobrze pokazuje, jak działa model AI. On nie ma dylematów, on posługuje się statystyką. Coś jest bardziej lub mniej prawdopodobne – wykalkulował to na podstawie dostarczonych zmiennych i zastosował optymalną strategię. Dramatyczne, ale tak to działa. Gdyby robot został przygotowany w stylu „dziecko ma priorytet”, to ratowałby dziecko. Natomiast dylematy, co jest bardziej etyczne, są właściwe ludziom – w wypadku AI zależą od projektantów modeli i ich decyzji przy ustalaniu reguł zachowania robota.

    Z drugiej strony ograniczanie modeli to nie jest jednoznaczny temat i jest oraz powinien być poważnie dyskutowany. Przykładowo gdzie są granice wolności słowa, czy można odbiorcom ograniczać dostęp do treści (np. w wyszukiwaniu stron czy udzielaniu odpowiedzi), ponieważ coś jest bardziej lub mniej etyczne? Kto o tym w ogóle ma prawo decydować? Jest to ogromne pole do nadużyć, ponieważ komuś (np. dostawcy modelu) opłaca się serwować taką, a nie inną ocenę różnych informacji czy faktów. Taka sytuacja ogranicza lub wręcz zabija debatę publiczną i w dużym stopniu także debatę naukową, a w konsekwencji rozwój nauki. Czy to jest prawidłowy kierunek? Moim zdaniem nie, a przykłady z ostatnich lat można mnożyć.

    Nie chcielibyśmy, by każdy miał dostęp do przepisu na ładunek wybuchowy. Dlatego modele GenAI są ograniczane poprzez specjalne procedury.

    Z drugiej strony modele GenAI mogą generować treści obraźliwe, ofensywne, łamiące prawo czy wręcz szkodliwe. Nie chcielibyśmy, by każdy miał dostęp do przepisu na ładunek wybuchowy. Dlatego modele GenAI są ograniczane poprzez specjalne procedury, o których wspominałem wcześniej. Pamiętajmy jednak, na końcu lub raczej na początku tworzenia modelu zawsze to jakiś człowiek decyduje, co jest „etyczne”, a co „nieetyczne”.

    W filmie w walce z AI, znaną jako V.I.K.I., mamy sojusznika: robota Sonny’ego, który nie zgadza się z jej poglądami. Czy może tak się zdarzyć, że dwie osobne AI będą miały dwa różne sposoby rozwiązania tego samego problemu?

    Nie wchodząc w szczegóły – podczas uczenia sieci neuronowych i modeli deep learning nigdy nie jesteśmy w stanie stwierdzić, czy nasze nawet najprostsze rozwiązanie jest najlepsze. Model w procesie uczenia dochodzi do jakiegoś optimum, ale nigdy nie wiemy, ze względu na skomplikowanie całego procesu, czy jest to globalnie najlepsze miejsce. Z drugiej strony być może nie ma najlepszego rozwiązania problemu, tylko jest kilka równoważnych. Tak że wracając do Twojego pytania ­– tak, może i najprawdopodobniej się wydarzy :)

    Co jakiś czas pojawiają się głosy, że AI może uznać człowieka za zagrożenie dla siebie lub planety (czerpiąc wiedzę z internetu, może natrafić na artykuły, które wskazują na zgubny wpływ człowieka na Ziemię) i potraktować atak na ludzkość jako obronę swojej egzystencji. Na ile są to realne obawy?

    Jeżeli mówimy o intencjonalnym działaniu, to raczej należy to postrzegać w kategoriach nieodpowiednich narzędzi w rękach nieodpowiednich ludzi. Zagrożenia związane z AI są jak najbardziej realne. Może niekoniecznie związane z atakami na człowieka, ale w warunkach pokojowych chodzi raczej o naruszanie prawa, własności intelektualnej, różnego typu oszustwa. AI może zostać użyta niestety w różnych celach, jak każde inne narzędzie. Może być też użyta błędnie albo też zwyczajnie się popsuć.

    Jeżeli AI kiedyś zyska samoświadomość, to nie będzie jej nic ograniczało i wówczas naprawdę obudzimy się w nowej rzeczywistości. Porównałbym to do spotkania z cywilizacją pozaziemską. Może jak w „Solaris”?

    Popuśćmy na chwilę wodze fantazji i załóżmy, że AI zyska samoświadomość i samodzielność. Czy może się tak zdarzyć, że będzie potrafiła obejść ograniczenia które jej wgramy?

    Jeżeli AI kiedyś zyska samoświadomość, to nie będzie jej nic ograniczało i wówczas naprawdę obudzimy się w nowej rzeczywistości. Porównałbym to do spotkania z cywilizacją pozaziemską. Nie wiem, czy wyglądałoby to jak w „Wojnie światów” czy w „Bliskich spotkaniach trzeciego stopnia”, ale moim zdaniem najbardziej prawdopodobne jest, że jak w „Solaris”. W każdym razie... nie próbujmy!

    Więcej informacji o AI znajdziesz na społeczności AI Connect na Viva Engage.

    Krzysztof Michlik, Super Circle Obsługa Kasowa
    Przemysław Solecki, AI Connect