Prof. Aleksandra Przegalińska: Polska nie może depriorytetyzować znaczenia i roli AI
Jeśli Polska ma ambicje związane ze swoją pozycją na arenie międzynarodowej, to nie może ignorować znaczenia technologii. Liderzy europejscy wypowiadają się na ten temat, co pokazuje, że świat traktuje rozwój technologii bardzo poważnie. Jeśli Polska chce być partnerem dla swoich sojuszników, również musi włączyć się w międzynarodową debatę, a nie zaś depriorytetyzować znaczenie i rolę AI. – Z futurolożką i prorektor ds. współpracy z zagranicą z Akademii Leona Koźmińskiego, prof. Aleksandrą Przegalińską, na temat AI, cyberbezpieczeństwa, dezinformacji i ich wpływu na demokrację, rozmawia Michał Ruszczyk.
Michał Ruszczyk: Niedawno powstał nowy rząd. Jakie przed nim stoją wyzwania w zakresie cyberbezpieczeństwa i dezinformacji?
Prof. Aleksandra Przegalińska: Cyberbezpieczeństwo jest tematem, który ciągle jest odkładany w czasie. Mimo zapowiedzi dotyczących stworzenia przepisów, które regulowałyby tę sprawę, proces ten nadal tkwi na etapie prac legislacyjnych.
Jeśli chodzi o dezinformację, nie ma najmniejszych wątpliwości, że nowy rząd będzie miał dużo do zrobienia w tym zakresie, ponieważ jest to temat, który jest bardzo mocno związany z AI, która w ostatnim czasie przeżywa swój najlepszy okres.
Ubiegły już rok z całą pewnością należał do sztucznej inteligencji ze względu na jej niesamowity rozwój. Należy powiedzieć, że wówczas w szczególny sposób rozwinęła się tzw. generatywna sztuczna inteligencja, dzięki której można tworzyć teksty, wideo czy też klony głosu, które do złudzenia przypominają prawdziwych ludzi. Zaś ich doskonałość jest już tak duża, że rozróżnienie, czy mamy do czynienia z deepfakem czy tez rzeczywistą postacią, jest coraz trudniejsze. Tym bardziej w sytuacji, gdy zjawisko to jest coraz bardziej powszechne.
Z kolei dużym problemem w sytuacji coraz bardziej rozwijającej się technologii jest fakt, iż deepfake są coraz bardziej doskonałe. Mimo to nie można zakazać użytkownikom social mediów komentowania rzeczywistości polityczno-społecznej w ten sposób, co rodzi pewne zagrożenia. Jako przykład można podać słuszną uwagę, która padła w podcaście New York Timesa „The Daily”. Mianowice fakt, iż Donald Trump ma problemy prawne, ale zważywszy na rozwój technologii może powiedzieć, że jest to deepfake. Tego rodzaju ryzyko trzeba brać pod uwagę, iż w sprawach, które mogą być niewygodne dla polityków, mogą się oni zasłaniać argumentem „deepfake’u”.
Niemniej mimo tych niebezpieczeństw świat próbuje im zapobiegać. Jako przykład można podać regulację Unii Europejskiej, która ma wkrótce zostać przegłosowana, a która dotyczy sztucznej inteligencji. Jej zapisy przewidują, że platformy społecznościowe i firmy musiałyby informować swoich użytkowników i konsumentów poprzez oznaczenie produktów, jeśli powstał on z wykorzystaniem AI. Czas pokaże, czy i w jakim zakresie przepisy te będą przestrzegane.
Powiedziała Pani, że ubiegły rok był przełomowy dla AI. Dlaczego?
Ponieważ AI zaczęła być powszechnie wykorzystywana, co jest dużym przełomem i różnicą z poprzednimi latami. Tym bardziej, że do powszechnego użytku weszły tzw. wielkie modele, jak ChatGPT, który jest kanonicznym przykładem.
Należy powiedzieć, że przez ostatnie parę lat różne firmy, jak OpenAI, Google, ale nie tylko one, pracowały nad takimi modelami, które są w stanie tworzyć rozmaite treści. Zaś efekty tych prac zakończyły się w zeszłym roku, a ich owoce przekazano użytkownikom. Warto podkreślić, że są one łatwe w obsłudze, a ponadto rozumieją polecenia użytkownika. A zatem można z nich korzystać bez programowania, co jest przełomowym rozwiązaniem.
Jednak z drugiej strony niosą zagrożenie, gdyż ich dostępność umożliwia tworzenie kolejnych deepfake’ów, w sytuacji coraz większych możliwości technologicznych i faktu, iż wykorzystywanie nowych innowacji jest coraz łatwiejsze.
Jak w Pani ocenie rozwój AI w ubiegłym roku może przełożyć się w kolejnych latach?
Sądzę, że będzie to kolejny rok AI, ponieważ poprzedni był dosyć szalony. To znaczy, nawet w środowisku naukowym panował dwugłos co do dalszego jej rozwoju ze względu na pojawiające się obawy, ale też olbrzymi entuzjazm, żeby kontynuować badania, zwłaszcza gdy pojawiają się kolejne wyzwania. Jak na przykład propozycja wprowadzenia czterodniowego tygodnia pracy, co z kolei może zmienić dotychczasowy rynek pracy i gospodarkę tak samo jak AI. To z kolei bardzo dobrze obrazuje emocje związane z rozwojem sztucznej inteligencji, która budzi skrajne emocje, od obaw, aż po entuzjazm.
Natomiast, odpowiadając na Pana pytanie, w mojej ocenie obecny rok również będzie należał do sztucznej inteligencji, ponieważ do użytku wejdzie kolejna odsłona ChatuGPT, która miała się pojawić już w ubiegłym roku. Jednak ze względu na problemy w firmie OpenAI do tego nie doszło. Sądzę, że obecny rok zwiastuje jeszcze większy wyścig w branży, co z kolei przełoży się na coraz większą obecność sztucznej inteligencji w życiu codziennym społeczeństwa. To zaś będzie oznaczało, że deepfake’ów będzie coraz więcej, a rynek pracy zacznie się zmieniać i dostosowywać się do nowych technologii.
Jakie zmiany w systemie edukacji należałoby przeprowadzić, żeby przyszłe pokolenia miały odpowiednie kompetencje, by nie ulegać dezinformacji?
To jest bardzo trudne pytanie. Natomiast jeśli weźmie się pod uwagę rozwój AI w ubiegłym roku, należy powiedzieć, że zaskoczył on wszystkich, również w systemie edukacji, ponieważ okazało się, że pojawiły się narzędzia, dzięki którym uczeń lub student może pisać eseje, ale nie tylko. To zaś doprowadziło do sytuacji, że uczelnie wyższe musiały opracować inny sposób weryfikacji wiedzy. Debata na ten temat ma również miejsce nie tylko w edukacji na poziomie wyższym, ale również średnim i podstawowym, ponieważ ChatGPT daje olbrzymie możliwości, ale z drugiej strony może je również ograniczać.
Natomiast w mojej ocenie istotnym elementem tej debaty jest wykorzystywanie ChatuGPT w taki sposób, żeby personalizować edukację ze względu na indywidualne potrzeby i umiejętności ucznia lub studenta. Jednak sam proces integracji sztucznej inteligencji z edukacją leży już w kompetencjach resortu, który powinien zastanowić się, w jaki sposób zintegrować edukację z technologią, ale w taki sposób, żeby zostało zachowane krytyczne myślenie. To z pewnością jest olbrzymie wyzwanie, zwłaszcza że polska szkoła boi się zmian technologicznych, które zachodzą na świecie. A to z kolej jest błędne podejście, ponieważ krytycznej edukacji technologicznej można uczyć w atrakcyjny sposób. Mam nadzieję, że obecny rząd weźmie to pod uwagę i nie będzie tylko skupiał się na dyskusji wokół prac domowych, gdyż nie jest to myślenie perspektywiczne.
Jak bardzo AI może okazać się skutecznym narzędziem dla populistów w kampaniach wyborczych?
Należy powiedzieć, że są narzędzia, dzięki którym, każdy obywatel może zweryfikować, czy jakieś wideo lub zdjęcie nie jest potencjalnym deepfakem. Jednak programy te są mało popularne, mimo iż są bezpłatne, użytkownicy social mediów nie wiedzą, że mogą z takich narzędzi skorzystać. To zaś pokazuje, że należy podnosić świadomość społeczną w tej kwestii, gdyż nie ma innego wyjścia.
Niewykluczone też, że firmy, które zajmują się rozwojem technologii, powinny dać lepsze narzędzia, które będą służyły do fact-checkingu, mimo iż mogą nie być do tego skłonne. Ponieważ może to wpłynąć na rozrywkę w social mediach i zwiększyć świadomość społeczeństw. Jednak biorąc pod uwagę fakt, w jak szybkim tempie rozwija się technologia, może się okazać to konieczne, zważywszy na trudności z weryfikacją niektórych treści, które są zazwyczaj formą komentowania codziennej rzeczywistości.
Jakie należy wprowadzić regulacje prawne, żeby w czasie trwania kampanii wyborczej były skuteczne, ale również egzekwowane?
Istnieje europejska regulacja, której przepisy mówią, że AI musi być przede wszystkim transparentne. To zaś oznacza, że jej wytwory muszą być oznaczone, żeby odbiorca miał świadomość, czy ma do czynienia z wytworem człowieka czy też sztucznej inteligencji. Oczywiście w teorii brzmi to lepiej niż w praktyce. Niemniej można certyfikować produkty, które powstały przy pomocy AI, w podobny sposób, jak oznacza i klasyfikuje się inne produkty życia codziennego przekazując również konsumentowi informację, gdzie zostały wyprodukowane i jakie mają parametry.
W mojej ocenie fakt, iż coś powstało dzięki AI nie musi oznaczać, iż jest to gorsze niż produkt, który został wytworzony samodzielnie przez człowieka. Ponieważ osoby pracujące z AI mogą czuć satysfakcję z tej pracy i w ten sposób podzielić się tym faktem.
Natomiast, odpowiadając na Pana pytanie, regulacja ta wprowadza większą transparentność i sądzę, że na razie wystarcza, zwłaszcza że na bazie jej zapisów można wprowadzać w życie pewne rozwiązania, co do których dostosują się również sami politycy w czasie swojej kampanii wyborczej. Mianowicie żeby swoimi materiałami wyborczymi nie wprowadzać opinii społecznej w błąd. Tym bardziej, że mimo, iż regulacja ta wkrótce zostanie przegłosowana, to jej przepisy wejdą w życie dopiero za rok. A zatem będzie dość długi okres przejściowy w celu dostosowania prawa, zwłaszcza że wątpię, żeby w Polsce, mimo zmiany rządu, doszło do uchwalenia krajowej regulacji, która dotyczyłaby walki z dezinformacją.
Niedawno ukazał się wywiad z posłem Grzegorzem Napieralskim, z którego wynika, że tylko niewielka garstka polityków rozumie znaczenie AI. Jak Pani to skomentuje?
Obawiam się, że jest to niestety prawda, co nie jest dobrą informacją. Ponieważ AI od ubiegłego roku nie jest już kwestią marginalną, która pojawia się tylko w popkulturze. Jest zaś narzędziem, które może stać się pomocne, ale również niebezpieczne w bardzo wielu dziedzinach. Obawy jak najbardziej są uzasadnione, zwłaszcza że poza deepfake’ami, nikt nie wie, jak bardzo świat się zmieni w wyniku, tak szybkiego rozwoju sztucznej inteligencji.
To zaś jest olbrzymie wyzwanie dla społeczeństwa, którym politycy powinni się zainteresować i rozpocząć poważną debatę na ten temat. Niestety, polscy politycy za mało interesują się tą kwestią w odróżnieniu do społeczeństwa, które chce korzystać z technologii w sposób bezpieczny.
Co powiedziałaby Pani politykom, którzy z różnych względów postrzegają AI jako daleką pieśń przyszłości?
Myślenie w takich kategoriach jest błędne i nie posuwa nikogo do przodu, ponieważ jest to postrzeganie świata w sposób życzeniowy. Mianowicie odsuwanie w czasie wyzwania, jakim jest rozwój technologii, de facto nie rozwiązuje żadnego problemu, gdyż prędzej czy później trzeba będzie się nad tym problemem pochylić. Jednak wówczas skutki mogą być trudniejsze do przewidzenia. Tym bardziej, że jako państwo cały czas się rozwijamy i również uczestniczymy w skoku cywilizacyjnym z resztą świata. Jeśli Polska ma ambicje związane ze swoją pozycją na arenie międzynarodowej, o których myśli poważnie, to nie może ignorować znaczenia technologii, gdyż są one jednym z wielu znaczących środków, który pozwoli osiągnąć ten cel.
Najlepszym tego przykładem jest prezydentura Joe Bidena, który w odróżnieniu od Baracka Obamy postrzegał tę sprawę jako niezbyt istotny temat. Mimo to pod koniec swojej drugiej kadencji zajął się autonomicznymi samochodami. Jednak mimo tej inicjatywy, temat związany z AI nie był kontynuowany przez Donalda Trumpa. Dopiero w ubiegłym roku po bardzo długiej przerwie, Joe Biden podpisał dekret dotyczący sztucznej inteligencji. Ponadto premier Wielkiej Brytanii, Rishi Sunak zorganizował szczyt dotyczący AI. Liderzy europejscy wypowiadają się na ten temat, co pokazuje, że świat traktuje rozwój technologii bardzo poważnie. Jeśli zaś Polska chce być partnerem dla swoich sojuszników, również musi włączyć się w międzynarodową debatę na ten temat, a nie zaś depriorytetyzować znaczenie i rolę AI, ale również zagrożenie jakie jej rozwój niesie dla społeczeństwa.
Wojna na Ukrainie pokazuje, że drony mogą być wykorzystywane nie tylko w ramach rekreacji, ale także w czasie konfliktu. Co powiedziałaby Pani politykom, którzy postrzegają AI jako bardzo długą perspektywę czasową?
Jest to ignorancja, ponieważ sztuczna inteligencja towarzyszy nam w życiu codziennym. Zaś politycy dzięki jej pomocy robią kampanie polityczne w social mediach i de facto są skazani na jej łaskę, gdyż ich wynik zależy od algorytmów aplikacji z których korzystają w czasie kampanii.
Natomiast odpowiadając na Pana pytanie, jeśli niektórzy politycy faktycznie sądzą, że rozwój technologii to kwestia dłuższej perspektywy czasowej, to są w olbrzymim błędzie, ponieważ sztucznej inteligencji jest już dużo, a będzie coraz więcej. Wykorzystywanie egzoszkieltów czy dronów w konfliktach jest już rzeczywistością, a nie pieśnią przyszłości, którą możemy tylko znać z futurystycznej wizji świata w ramach seansów kinowych.
Jeśli politycy nie zdają sobie z tego sprawy to wykazują się tylko ignorancją.
Jak w Pani ocenie Polska wypada na tle Europy, jeśli chodzi o rozwój AI?
To jest bardzo ciekawe, ponieważ w Polsce jest bardzo dużo talentów informatycznych, którzy pracują dla międzynarodowych firm. Te zaś, dzięki doświadczeniu polskich pracowników, wprowadzają na rynek nowe technologie. A zatem bez wątpienia polscy specjaliści cieszą się ogromnym szacunkiem w branży, ale nie przekłada się to na osiągnięcia Polski jako państwa. Ponieważ nie mamy rodzimych firm o międzynarodowym znaczeniu, które mogłyby się pochwalić znaczącymi osiągnięciami. W pewnym sensie jest to zrozumiałe, gdyż rynek europejski oraz światowy zdominowali Amerykanie, którzy mają odpowiednią infrastrukturę do rozwijania AI.
Jeśli zaś chodzi o Europę, należy powiedzieć, że wbrew pozorom, państwem, które dostarcza kontynentowi najwięcej technologii nie są państwa członkowskie Unii Europejskiej, ale Szwajcaria. Natomiast w samej Unii Europejskiej bez wątpienia dominują Niemcy i Francja. W mojej ocenie, jeśli weźmie się pod uwagę rozwój technologii na świecie, ale głownie w Europie, mimo wszystko Polska nie jest na szarym końcu, ponieważ innowacje technologiczne szybko się przyjmują, a polskie firmy starają się nadążać za nowinkami technologicznymi. Sądzę, że największym wyzwaniem dla Polski byłoby konkurowanie z globalnymi graczami, takimi jak Chiny czy Stany Zjednoczone, które są poza jakimkolwiek zasięgiem Polski.
Wojna na Ukrainie, konflikt na Bliskim Wschodzie, napięcia na linii Tajpej-Pekin-Waszyngton. Jak Pani sądzi, czy świat jest przygotowany na kolejne wyzwania, jakim jest rozwój AI?
De facto nigdy nie ma dobrego czasu, żeby przygotować się na takie wyzwania, jak konflikty, które obecnie trwają na Bliskim Wschodzie i Ukrainie, zwłaszcza że „konflikty czekają w kolejce”. Trudno przewidzieć, kiedy jeden się zakończy, a jego miejsce zastąpi kolejny. W mojej ocenie sytuacja wygląda podobnie z rozwojem technologii.
Odpowiadając na Pana pytanie, sadzę że ubiegły rok pokazał, iż społeczeństwa, mimo pierwszego szoku, de facto są przygotowane na dalszy rozwój technologii. To znaczy po pojawieniu się ChataGPT, wielu osobom udało się przekwalifikować i przyzwyczaić do nowych innowacji, których każdy na swój sposób spróbował. Zatem, w mojej ocenie, w sytuacji rozwoju technologicznego, społeczeństwa są w stanie zaadaptować się do nowych realiów mimo początkowych obaw, co jest zrozumiałą reakcją. Jednak, jak pokazał ubiegły rok, z czasem pojawia się zainteresowanie i mimo wszystko nie odwracamy się od innowacji tylko próbujemy zaadoptować je w naszym życiu codziennym.
Nie zmienia to jednak faktu, iż obawy są zrozumiałe, chociażby ze względu na to, czy i w jaki sposób AI może zostać wykorzystane w przyszłych konfliktach, które mogą okazać się dewastujące dla świata. Trudno przewidzieć, jak może wyglądać przyszłość konfliktów z użyciem AI, gdyż zawsze znajdą się ludzie, którzy będą chcieli każdą innowację wykorzystać w sposób niezgodny z jej przeznaczeniem.
Unia Europejska hartuje i reformuje się w czasie kryzysów. Jak Pani sądzi, czy w wyniku wojny na Ukrainie i dezinformacji rosyjskiej na bardzo wielu płaszczyznach, powinna powstać jakaś międzynarodowa instytucja, która przygotowywałaby wspólnotę do rozwoju AI, ale również współpracowałaby z partnerami w celu zwalczania rosyjskiej dezinformacji?
Sadzę, że jest to ciekawy pomysł. Tym bardziej, że regulacja europejska przewiduje budowanie międzynarodowych centrów kompetencji, które miałyby ze sobą współpracować. Niewykluczone, że jednym z ich zadań byłaby wspólna walka z dezinformacją, które nie płynie tylko z Rosji, ale również między innymi z Iranu. Bez wątpienia byłoby to działanie, nawet o transatlantyckim znaczeniu, zważywszy na olbrzymie zainteresowanie Stanów Zjednoczonych AI.
W jaki sposób należy uregulować AI?
Należy powiedzieć, iż pomysły w tej kwestii są, ale nie wiadomo, na ile będą one skuteczne. Tym bardziej, ze Biden w swoim dekrecie dotyczącym sztucznej inteligencji poruszył między innymi kwestie dezinformacji czy dyskryminacji, co w Stanach Zjednoczonych jest bardzo ważną sprawą. Jest na przykład regulacja kanadyjska, ale jedno to teoria, a drugie to praktyka i czas pokaże, jak będzie wyglądała sytuacja ze stosowaniem przepisów. To znaczy, czy regulacje te nie okażą się martwe, gdyż nie ma wątpliwości, że sprawę tę w jakiś prawny sposób trzeba uregulować, mimo iż niektórzy twierdzą, żeby technologii nie przeszkadzać, tylko dać się jej rozwijać, a wówczas sytuacja sama się wyklaruje.
Osobiście w to wątpię, ponieważ ludzie zbudowali samochody, a następnie stworzyli przepisy ruchu drogowego. Podobnie rozwiązania należy podjąć również w przypadku AI. Sądzę, że przydałaby się także przysięga na kształt przysięgi Hipokratesa dla osób pracujących w branży związanej z AI. Czas pokaże, czy uda się pewne rozwiązania wprowadzić i czy przepisy w tej kwestii nie będą martwe.
Bardzo dziękuję za rozmowę.