Dr hab. n. o zarz. Aleksandra Przegalińska
Prorektor ds. innowacji i sztucznej inteligencji – Akademia Leona Koźmińskiego. Kierownik HumanRace Research Center humanrace.edu.pl. Senior Research Associate Harvard Center for Labour and Just Economy.
Rozwój sztucznej inteligencji następuje w sposób wykładniczy. AI zmienia otaczającą nas rzeczywistość, usprawniając naszą pracę, pomagając lekarzom w diagnozowaniu czy wspierając proces twórczy. Źle użyta może jednak posłużyć np. propagandzie.
Jakie największe możliwości rozwoju widzi pani w różnych zastosowaniach sztucznej inteligencji?
Tych możliwości jest bardzo dużo. Mierzymy się teraz ze skutkami potwornej katastrofy, jaką jest powódź. Sztuczna inteligencja to technologia, która służy nam do robienia prognoz fal kulminacyjnych, ale też długoterminowych predykcji tego typu katastrof. Dzięki temu możemy się trochę lepiej na nie przygotować. Bardzo dużo jest zastosowań AI w medycynie, a zwłaszcza w diagnostyce. Sztuczna inteligencja jest też bardzo ciekawym narzędziem do poprawy produktywności pracy – od wysyłania maili, robienia prezentacji, notatek, formatowania raportów aż po obsługę klienta. Ludzie chętnie delegują część swoich zadań na AI i bardzo wiele osób już dziś korzysta ze sztucznej inteligencji. Mój zespół badawczy opracował dzięki tej technologii krytyka, który surowo recenzuje naszą pracę. Nauczyciele często sięgają po AI, by wygenerować scenariusze lekcji. Są też osoby, które wspierają się sztuczną inteligencją w pracy kreatywnej – pisaniu bajek, kompozycji czy opracowywaniu przepisów kulinarnych.
Co w rozwoju sztucznej inteligencji powinno budzić nasz największy niepokój?
Dużym problemem są deep fake’i i wszelkie formy dezinformacji. To się nie ogranicza tylko do zmanipulowanego wideo, ale może też dotyczyć prób oszukiwania modeli językowych, wyszukujących w sieci informacje. Można zastosować sprytne sposoby, by na stronę, która będzie przeszukiwana, wrzucić tekst, który sprawi, że model pobierze fałszywy komunikat i przekaże go dalej użytkownikowi. Takie narzędzie może posłużyć np. propagandzie. Tailor Swift ostatnio powiedziała, że głównym powodem, dla którego postanowiła wyrazić poparcie dla Kamali Harris jest to, że powstały deep fake’i, w których popiera ona Donalda Trumpa. To, że AI jest powodem, dla którego ktoś robi takie oświadczenie, już powinno uczulać nas na to, jaki to jest problem.
Jak zapewnić bezpieczne wdrażanie AI w różnych sektorach?
Powstają regulacje, takie jak unijny AI Act. To, że na trzy miesiące przed jego wdrożeniem zastanawiamy się, jak to zrobić w poszczególnych branżach świadczy o tym, że coś jest nie tak. Ja zgadzam się z duchem tej regulacji i uważam, że bardzo potrzebny jest np. jej komponent, który stara się budować postawy sprawdzania informacji oraz oznaczania, że coś jest stworzone z wykorzystaniem AI. Jeśli zapisy będą bardzo surowe, to doprowadzą firmy do strachu przed wdrożeniem sztucznej inteligencji. W Europie pojawi się wtedy problem, polegający na tym, że trafimy do drugiej prędkości rozwoju technologicznego, a póki co zamykamy peleton tej pierwszej. Liczę na dialog, który pozwoli ludziom się rozeznać, jak być w porządku wobec przepisów i jednocześnie nie rezygnować z AI.
Jak sztuczna inteligencja może wpłynąć na rynek pracy?
Na pewno niektóre zawody są zagrożone. Jeśli ktoś jest dzisiaj np. lektorem, to rzeczywiście z klonami głosu będzie mu trudno konkurować. W większości przypadków mamy jednak do czynienia z technologią, która wspiera pracę punktowo. Praca lekarza to przecież nie tylko patrzenie na zdjęcie z obrazem organu. Nie mamy też rozwiązanych kwestii, dotyczących tego, kto bierze odpowiedzialność za to, co robi AI. Dziś jest to człowiek i powinien on tę technologię nadzorować. Myślę, że w takim świecie będziemy jeszcze długo funkcjonować.
Jakie umiejętności powinni rozwijać młodzi ludzie, aby w pełni wykorzystać potencjał AI w przyszłości?
Młodzież już bardzo rozlegle wykorzystuje te narzędzia. To, czego im brakuje, to krytyczny ogląd tej technologii, świadomość tego, że nie można jej w pełni zaufać, a także bazowe rozumienie tego, co ten model robi, gdy odpowiada na pytanie.