Photo representing the subject of the blog
AI: Cudowna Rewolucja czy Cyfrowa Pandora? Równocześnie Szansa i Zagrożenie Dla Współczesnej Cywilizacji
Reading time: 2 minutes
AI: Cudowna Rewolucja czy Cyfrowa Pandora? Równocześnie Szansa i Zagrożenie Dla Współczesnej Cywilizacji

Sztuczna inteligencja (AI – ang. Artificial Intelligence) budzi zainteresowanie od dłuższego czasu, ale dopiero od mniej więcej dekady cieszy się nim na szerszą skalę, a od kilku miesięcy gości w mainstreamie. Wiele osób ma bardzo optymistyczne podejście do tej technologii, a raczej zbioru technologii. Inni obawiają się, że przyniesie ona więcej szkód, niż pożytku. Osobiście, podobnie jak wielu naukowców, techników i filozofów, skłaniam się bardziej ku tezie, że sztuczna inteligencja przyniesie więcej złego, niż dobrego, jeżeli technologia ta, jak i produkujące ją oraz wykorzystujące firmy, nie zostaną na czas mądrze uregulowane.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, wbrew nazwie, nie jest w ogóle inteligencją. To po prostu bardzo zaawansowane, skrupulatnie przygotowane programy komputerowe, zwane też algorytmami. Ich wyjątkowość polega na tym, że potrafią się „uczyć” – tak jak gra komputerowa, zapamiętująca strategię ludzkiego gracza i w związku z tym będąca coraz trudniejszą do pokonania. Uczą się one na bazie danych pochodzących z Internetu, bardzo często pozyskiwanych na granicy prawa, bo od niczego nieświadomych użytkowników. RODO minimalnie ucywilizowało tę sytuację, ale wciąż daleko jej do przywrócenia porządku. Przykładowo, programy sztucznej inteligencji mogą szkolić się na moich artykułach, a potem na ich podstawie generować odpowiedzi, chociaż ja ani nie wyraziłem na coś takiego zgody, ani nie otrzymałem za to wynagrodzenia od firmy tworzącej taki program AI, ani też nie zostanę podpisany jako współautor wygenerowanego przez AI tekstu czy innego utworu.

 

Ja, co prawda, tworzę zazwyczaj rozbudowane teksty popularnonaukowe, analizy czy reportaże, ale tak naprawdę każdy, kto pisze posty w social media, klika w cokolwiek na stronie śledzącej ruch, czy też oznacza „antyspamowe” obrazki (typu: zaznacz wszystkie samochody albo przejścia dla pieszych), karmi sztuczną inteligencję swoimi danymi, nie dostając za to żadnego wynagrodzenia i często nie wyrażając na to zgody. Wielkie korporacje technologiczne właśnie na takiej darmowej „pracy” miliardów ludzi wypracowują te niebotyczne zyski, o których media finansowe regularnie nam donoszą. Prof. Shoshana Zuboff w „Wieku kapitalizmu inwigilacji” sugeruje, że jest to cyfrowy feudalizm; że tak jak kiedyś chłopi w zamian za pracę mieli dach nad głową i jedzenie, ale nie otrzymywali normalnego wynagrodzenia, tak teraz my w zamian za możliwość posiadania profilu na Facebooku lub TikToku, czy kupowania na Amazonie, wypracowujemy gigantyczne zyski korporacjom, które jednak się z nami tymi dochodami nie dzielą. Nikt tej tezy nie obalił i wygląda na to, że jest ona trafna.

 

W każdym razie pod pojęciem „sztucznej inteligencji” kryją się programy potrafiące się „uczyć” i „wyciągać” wnioski ze statystyki. Jeśli AI wielokrotnie otrzyma informację, że np. obrazek kota to „kot”, a zebra na ulicy to „przejście dla pieszych”, to potem będzie już po kształcie, wyglądzie, rozmiarze czy kolorze potrafiła odpowiedzieć, że mamy na fotografii czy rysunku kota lub zebrę. W celu dokładniejszego i bardziej wykwintnego szkolenia AI korporacje technologiczne zatrudniają też specjalnych trenerów, którym już faktycznie płacą za wykonaną pracę, polegającą na wielogodzinnym „graniu” z programem sztucznej inteligencji, np. poprzez rozmowę, pozwalającą programowi nauczyć się tego, jak mówią i piszą ludzie.

 

Sztuczna inteligencja nie tylko nie jest inteligencją per se, lecz również nie jest świadoma. Może imitować świadomą konwersację, co po nakarmieniu jej multum danych pochodzących od świadomych istot, jakimi są ludzie, wcale nie jest dla niej takie trudne, jednakże nadal będzie to jedynie program. Istnieje natomiast takie pojęcie, jak „prawdziwa sztuczna inteligencja”. Dotyczy ono hipotetycznego programu, który miałby stać się realnie świadomy, jak ludzkie ciało i umysł. Jest to jednak sfera science-fiction i niewykluczone, że taki świadomy cyfrowy byt nigdy nie powstanie. Dlaczego? Potencjalnym powodem może być to, że świadomość może zaistnieć tylko w fizycznym, biologicznym ciele, i że ciało być może jest niezbędne do jej wykształcenia. Inny argument przemawiający za tym, że „prawdziwa”, czyli świadoma sztuczna inteligencja nie mogłaby zaistnieć, jest taki, że bez ciała oraz bez okresu dorastania i dojrzewania jej „umysłu” pogrążyłaby się w psychozie i w najlepszym razie byłaby jak ciężko zaburzone schizofreniczne dziecko bez dostępu do leków i psychoterapii. Jednocześnie nie da się wykluczyć, że w przyszłości świadomy program komputerowy powstanie, choć zweryfikowanie i udowodnienie takiej świadomości byłoby bardzo trudne.

 

Zalety z korzystania ze sztucznej inteligencji

 

Jedną  najczęściej wymienianych zalet AI jest pomoc w diagnostyce obrazowej. Bez wątpienia to lekarz radiolog, gastrolog czy patolog muszą sprawdzić, czy w obrazie z tomografii komputerowej, rezonansu magnetycznego, endoskopii bądź preparatu histologicznego nie ma jakichś nieprawidłowości, niemniej program AI mógłby dodatkowo, równolegle, sprawdzać te same dane, wspomagając pracę techników i lekarzy, zmniejszając ryzyko popełnienia przez nich błędu przeoczenia czegoś. Zarazem zasady musiałyby stanowić jasno, że niezależnie od przejrzenia badań przez program AI, człowiek i tak musiałby wszystko skrupulatnie zobaczyć, bo algorytm również może się pomylić. Programy AI będą więc tutaj dodatkowym narzędziem dla specjalistów, trochę jak specjalny filtr na mikroskop, przez który lekarz musi spojrzeć, aby upewnić się, że czegoś ważnego nie pominął.

 

Kolejny pozytywny aspekt istnienia programów sztucznej inteligencji jest taki, że mogą one pomóc w planowaniu rozmaitych działań. Na przykład rozkładów zajęć w szkołach i na uczelniach. Mogą też stanowić pomoc w planowaniu przestrzeni publicznej, polityk społecznych i innych. Jednakże, podobnie jak w przypadku wspomagania lekarzy, całość zawsze i tak musieliby wypracować ludzie. Sytuacja, w której człowiek jedynie redaguje czy poprawia to, co wygenerował mu program AI, może być niebezpieczna. Wszystko, co poda algorytm AI, a co miałoby być wykorzystane w realnym życiu i oddziaływać na ludzi, każdorazowo powinno być weryfikowane przez człowieka, nim zostanie wdrożone, ponieważ programy sztucznej inteligencji są o wiele bardziej skomplikowane niż automatyczne obliczenia w Excelu czy inne proste, skomputeryzowane czynności.

 

Zarazem wyobrażam sobie zastosowania, gdzie każdorazowa weryfikacja przez człowieka nie musiałaby być koniecznością. Człowiek miałby kontrolę nad wyłączeniem czy zmodyfikowaniem systemu, ale nie musiałby wszystkiego sprawdzać i śledzić. Przykładem może być tutaj sterowanie sygnalizacją świetlną przez programy sztucznej inteligencji, które na bieżąco badają, gdzie jest korek, wydłużając dla takiej nitki czas palenia się zielonego światła. Na marginesie, warty wspomnienia jest książkowy zbiór opowiadań science-fiction pt. „Anatomia pęknięcia” Michała Protasiuka, gdzie w jednym z nich sztuczna inteligencja, stając się tą ogólną, prawdziwie samoświadomą, wykorzystuje możliwość kierowania ruchem do działania przeciwko ludziom.

 

Programy sztucznej inteligencji mogą być też przydatne w sektorze gier komputerowych. Każdy, kto grał wiele razy w Herosy, Age of Empires, Wiedźmina czy inne gry fabularne i strategiczne, wie, że z czasem nawet gra na najtrudniejszym poziomie jest dla człowieka zbyt prosta. Można by stworzyć osobny poziom trudności, w którym przeciwnicy działają na podstawie uczącej się sztucznej inteligencji, dzięki czemu rozgrywka stałaby się bardziej zniuansowana.

 

Również szeroko pojęte bezpieczeństwo może być wspierane przez sztuczną inteligencję, oczywiście o ile jest ona ściśle kontrolowana przez wyspecjalizowanych pracowników poszczególnych instytucji zajmujących się tym sektorem. Programy AI mogą na przykład pomagać w wykrywaniu prania brudnych pieniędzy czy zwalczaniu optymalizacji podatkowej, czyli oszukiwania społeczeństwa poprzez unikanie uczciwego płacenia podatków, dzięki rozpoznawaniu pewnych wzorców transakcji finansowych. Monitoring AI w sieci powinien też w przyszłości składać się na system cyberbezpieczeństwa w odniesieniu do włamań cyfrowych czy działań wrogich państw.

 

Sztuczna inteligencja to również poważne zagrożenia

 

Hurraoptymizm nie jest wskazany, gdy mamy do czynienia z czymś cywilizacyjnie nowym, a choć prymitywne programy sztucznej inteligencji są stosowane od połowy XX wieku, to tak naprawdę dopiero od kilku lat mamy do czynienia z algorytmami, które są przełomowe. W takiej sytuacji konieczna jest ostrożność, roztropność i badanie potencjalnych negatywnych konsekwencji oraz przygotowanie przeciwdziałających im rozwiązań.

 

„Wielu dyrektorów ds. technologii twierdzi, że mogą jednocześnie dbać o interesy swojej firmy i społeczeństwa. To bzdury. Dlaczego mielibyśmy zakładać, że ich motywy zysku idealnie pasują do potrzeb społeczeństwa?” – zauważa trzeźwo prof. Robert Reich z Uniwersytetu Kalifornijskiego w Berkeley, w swoim tekście dla „The Guardiana”. Ma rację, czego dowodów nie brakuje.

 

Facebook nie zmienia swoich algorytmów na premiujące posty z linkami do rozbudowanych, pobudzających do myślenia artykułów i podkastów. Wręcz przeciwnie, takie treści są dyskryminowane (mają obniżany zasięg), bo ludzie mniej czasu spędzają przez nie na Facebooku, a więcej poza nim, tym samym wyświetlając mniej reklam i zostawiając mniej swoich danych, które Facebook może spieniężyć lub wykorzystać do „nakarmienia” sztucznej inteligencji.

 

Twitter nie zbanuje niemal niezliczonych fałszywych kont, bo powodują ogromny ruch na tej platformie, chociaż mnóstwo ludzi się przez takie troll-konta kłóci lub pada ofiarą nagonek, a TikTok nie ograniczy dostępu osobom przed 18. rokiem życia, mimo iż badania pokazują, że rozwijający się mózg może zostać przez tego typu aplikację poważnie zaburzony, gdyż władający TikTokiem ByteDance straciłby wielu odbiorców.

 

Amazon nie przestanie wykorzystywać danych behawioralnych od klientów do wypracowywania przewagi swoich sprzedawców nad sprzedawcami zewnętrznymi, bo pozwolenie na uczciwą konkurencję odebrałoby mu wiele zysków. Zmuszenie Ubera do minimalnego ucywilizowania w ramach prawa europejskiego wymagało serii poważnych protestów ze strony taksówkarzy, jak i innych działań, w tym śledztw dziennikarskich i skandali z wyciekami danych.

 

Wszystkie te korporacje wydawały i dalej przeznaczają majątek na lobbing w UE i państwach UE, żeby spowolnić i zminimalizować regulacje w zakresie ich funkcjonowania, pomimo iż regulacje te są korzystne z perspektywy społeczeństwa. Trzeba być wyjątkowo naiwnym, żeby uwierzyć w to, że korporacje technologiczne same wypracują przyzwoite normy moralne i etyczne. Niech symbolem tego, jednoczącym wszystkie dotychczasowe wybryki i skandale, będzie nagłe zwolnienie microsoftowego zespołu od etyki w kwestii AI.

 

Masowe oszustwa, dezinformacja i trolling dzięki sztucznej inteligencji

 

Przede wszystkim programy sztucznej inteligencji bardzo ułatwią szerzenie dezinformacji. Bez generatorów tekstów jedna osoba mogła pisać kłamiące posty czy komentarze, mające na celu dezinformować lub skłócać ludzi, w takim tempie, w jakim uderzała palcami o klawisze na klawiaturze. „Wkraczamy w erę mediów, które będą zapełniane bagnami pełnymi filmów, nagrań audio, zdjęć i tekstów całkowicie generowanych komputerowo i mających na celu wprowadzanie ludzi w błąd. Opinia publiczna będzie miała bardzo, bardzo duże trudności z odróżnieniem tego, co prawdziwe, od tego, co fałszywe” – pisze Hamilton Nolan.

 

Dzięki takiemu narzędziu jak Czat GPT dezinformację można uprawiać znacznie szybciej. Dodatkowo, programy sztucznej inteligencji generujące obrazki, dźwięki i nagrania wideo, mogą wprowadzać niesamowity chaos informacyjny. Nie chodzi tu tylko o istnienie tak zwanych głębokich fejków (ang. deep fake), ale też o to, że ich obecność w sieci znacząco ułatwi oskarżanie rzetelnych dziennikarzy o to, że je stosują. Wydarzenie takie miało miejsce niedawno. Po tym, jak sygnaliści nagłośnili, że transseksualiści odprawiali seksualne tańce w przedszkolach na oczach dzieci, co zostało uwiecznione na zdjęciach oraz filmach i potwierdzone przez wiele osób, aktywiści trans i niebinarni głosili kłamstwo, że nagrania te są fałszywe, że są to deep fakes.

 

Gdyby coś takiego, jak fałszywe nagrania, w ogóle nie istniało, kłamliwe oskarżanie o ich stosowanie też nie miałoby racji bytu. Tymczasem nadeszły czasy, że ma. Uczciwym dziennikarzom od teraz można będzie zarzucać, że prawdziwe zdjęcia i nagrania zostały wygenerowane przez AI, a dziennikarze nie mają zbyt wielu sposobności, aby się przed takimi oskarżeniami bronić. Zwłaszcza, jeśli nie stoi za nimi duża redakcja, mająca pieniądze na zespół od weryfikacji faktów, czy na prawników.

 

Programy sztucznej inteligencji ułatwiają również innego rodzaju oszustwa: w twórczości. Coraz więcej osób staje się popularnych w social media nie dzięki własnym umiejętnościom i dokonaniom, lecz publikowaniu tekstów i grafik wygenerowanych przez AI. Tym samym sfera publiczna i głosy w mediach są coraz bardziej dostępne dla osób intelektualnie na to nie przygotowanych. Zastępy influencerów, którzy od kilku lat nie przeczytali żadnej książki, którzy organizują nagonki w sieci, a potencjalnie sensowne dyskusje przekuwają w „inby”, czyli niszczycielskie awantury, czy którzy popularyzują najgorsze wzorce zachowań, takie jak rozbieranie się za pieniądze przed kamerkami bądź publiczne lżenie z własnej rodziny, mają w tej chwili niesamowity wpływ na kreowanie postaw, szczególnie młodych ludzi. Znakomicie ujęła to Sylwia Czubkowska w serii tekstów o influencariacie w magazynie „SW+”.

 

Problemem jest też oszukiwanie w szkole i na studiach. Procesy, jakimi są uczenie się, samodzielne wymyślanie odpowiedzi na zadawane na egzaminach pytania, pisanie opracowań itp., sprawiają, że człowiek intelektualnie i umysłowo się rozwija. Dlatego też wykonywanie tych rzeczy, czy to poprzez plagiatowanie czy  generowanie prac przez programy sztucznej inteligencji, to nic innego jak oszustwo. Oszustwo, które jak nigdy wcześniej stało się łatwe do dokonania, i jak nigdy dotąd ciężkie do wykrycia.

 

Uczelnie wyższe we Francji zakazują takiego procederu pod rygorem wyrzucenia ze studiów oraz uniemożliwienia studiowania na innych uczelniach. Na prestiżowym Uniwersytecie w Uppsali ukarano już studenta za oszukiwanie z wykorzystaniem Czatu GPT. Podobne zakazy ustanowiono na wielu innych renomowanych uczelniach na całym świecie, aczkolwiek trzeba wspomnieć o wyjątku. Jest nim Uniwersytet Cambridge, gdzie pozwolono na stosowanie sztucznej inteligencji do przygotowywania opracowań, jednak pod warunkiem, że większość ich treści stworzył student, a tekst z generatora stanowi uzupełnienie jego pracy. Myślę, że nie jest to dobre rozwiązanie, ponieważ bardzo trudno będzie zweryfikować, czy ktoś skorzystał z takiego programu tylko w niektórych fragmentach, nie mówiąc o tym, że wykładowcy nie mają czasu na sprawdzanie takich rzeczy, dlatego też odgórny zakaz wydaje się być znacznie bardziej sensowny. Alternatywnie pozytywnym rozwiązaniem byłoby stworzenie praktyki wyjeżdżania wykładowcy z grupą studentów raz na semestr lub do roku w miejsce bez Internetu, a celem takiego kilkudniowego wyjazdu oprócz integracji byłoby samodzielne napisanie wypracowania. Sądzę, że wpłynęłoby to korzystnie nie tylko na jakość absolwentów, ale też ich zdrowie psychiczne.

 

Pomijanie pozytywnego czynnika ludzkiego

 

Następny poważny problem dotyczący korzystania przez rozmaite firmy ze sztucznej inteligencji, to pomijanie pozytywnego czynnika ludzkiego. W tym kontekście programy są trochę jak stereotypowi, surowi urzędnicy, których nie obchodzą żadne życiowe okoliczności – wszystko ma być jak od linijki, a choćby minimalne odstępstwo od przyjętych parametrów poskutkuje niemożnością załatwienia jakiejś sprawy. Już od jakiegoś czasu jest tak w sektorze kredytowym i ubezpieczeniowym, gdzie to algorytmy decydują o tym, czy ktoś będzie mógł otrzymać kredyt i kupić własne mieszkanie, albo czy otrzyma wyższą lub niższą składkę ubezpieczeniową. W uczciwej sytuacji ostatecznie to człowiek – pracownik banku czy agent ubezpieczeniowy – powinien mieć decydujący głos, mogący skorygować pewne kwestie umowy.

 

Aspekt ten odnosi się też do konsultantów czatowych i telefonicznych. Bez wątpienia nie jestem jedynym, który chcąc porozmawiać z człowiekiem, aby rozwiązać jakiś problem dotyczący telefonii komórkowej i usługi dostarczania Internetu, wielokrotnie odbijał się od irytujących wirtualnych doradców. Ich istnienie, być może ułatwiające funkcjonowanie działu obsługi klienta, nigdy nie powinno przyćmiewać ludzkich pracowników. Uwagi te po tysiąckroć mocniej dotyczą systemów sądowniczych czy urzędowych.

 

Utrata miejsc pracy i wzrost nierówności społecznych

 

Sztuczna inteligencja być może doprowadzi do masowej likwidacji ludzkich miejsc pracy. W miejsce człowieka pojawią się algorytmy AI. Korzystające z nich firmy nie będą musiały wypłacać pensji, opłacać ubezpieczenia, odprowadzać podatku i generalnie dbać o pracownika. To zaś spowodować może, że właściciele czy udziałowcy korporacji technologicznych będą się bogacić jeszcze bardziej, niż dziś. Między innymi dlatego wprowadzenie podatków od algorytmów sztucznej inteligencji zastępujących ludzkich pracowników wydaje się potrzebne – pieniądze zebrane w ten sposób i tak będą niższe, niż opłacenie człowieka na stanowisku pracy, ale będą niezbędne do sfinansowania służby zdrowia czy systemu emerytalnego, dziurawego również z powyższych powodów.

 

Pytanie, na które dziś nie znamy odpowiedzi, jest takie, czy w przyszłości powstaną nowe masowe miejsca pracy i nowe zawody, i czy będą to realnie potrzebne rzeczy, a nie stanowiska utrzymywane na siłę. Może takie nowe prace się pojawią, jak po rewolucji przemysłowej, ale może i nie. Jeśli nie, to masowa utrata stanowisk pracy może doprowadzić do niewyobrażalnych problemów społecznych, strukturalnych, demograficznych i politycznych. Kai Fu Lee, autor książki „Inteligencja sztuczna, rewolucja prawdziwa”, przychyla się bardziej do opinii, że będziemy cierpieć na niedobory stanowisk pracy i masowe bezrobocie. W swojej książce argumentuje, dlaczego nie możemy ekstrapolować pracowniczych następstw rewolucji przemysłowej na rewolucję programów sztucznej inteligencji.

 

Ale kwestia nierówności społecznych rozbija się o coś jeszcze. Niektóre ważne produkty sztucznej inteligencji będą siłą rzeczy gorsze od tych tworzonych przez człowieka. Na przykład sztuczne pisarstwo i dziennikarstwo, o ile nie zostanie z powodu kradzieży własności intelektualnej zakazane, będzie znacznie słabsze niż jakościowa praca z tekstem w wykonaniu człowieka. Moje przypuszczenie jest takie, że ludzie z niższych, biedniejszych czy mniej uprzywilejowanych intelektualnie klas społecznych częściej i łatwiej będą odbiorcami kiepskich i byle jakich treści generowanych przez programy sztucznej inteligencji, natomiast bardziej świadome, lepiej wykształcone czy bogaciej urodzone osoby będą chętniej sięgać po jakościową twórczość człowieka. To może doprowadzić z kolei już nie tylko do rozpadu debaty publicznej na mnóstwo baniek informacyjnych, z jakimi mamy teraz do czynienia, ale wręcz do zaistnienia dwóch (lub więcej) odseparowanych informacyjnie bloków klasowych. Być może moje rozumowanie jest błędne – opieram je trochę na analogii do zdrowszego żywienia się przez klasy wyższe i gorszego przez niższe – i, prawdę mówiąc, w tym przypadku chciałbym się mylić.

 

Kradzież własności intelektualnej przez sztuczną inteligencję

 

Jednym z najbardziej namacalnych i odczuwalnych już dzisiaj problemów dotyczących generatorów tekstów i obrazów, a w przyszłości z pewnością także dźwięków sztucznej inteligencji, jest fakt, że kradną one czyjąś pracę. Jak opisałem wcześniej, ich działanie polega na tym, że są „karmione” mnóstwem treści, by następnie móc generować na ich podstawie zdania czy obrazki. Są one zmiksowanymi kompilacjami twórczości osób, które zwykle nie wyraziły zgody na to, by z ich działalności korzystać, a przede wszystkim nie zostaną jako autorzy/współautorzy wygenerowanego tekstu lub obrazu podpisani, jak również nie otrzymają wynagrodzenia (pochodzącego z opłat dostępu do generatora AI czy z wyświetlających się w nim reklam), które powędruje do korporacji technologicznych.

 

Jest to zjawisko niezwykle niebezpieczne, ponieważ człowiek tworzący jakieś treści, wiedząc że zarobi na nich nie on, tylko firma tworząca generator AI, że nie zostanie nawet podany jako współautor, ba – że nie zostanie nawet poinformowany, że jego tekst czy obraz zostały wykorzystane do wygenerowania czegoś przez AI – po prostu traci motywację, chęć do pracy, kreatywność itd.

 

Dynamika takiego procesu z czasem doprowadzić może do ograniczenia realnej twórczości, kreatywności, rozwoju intelektualnego i kulturowego. Krótkowzroczne osoby, zachłyśnięte łatwym dostępem do treści, będą prawdopodobnie popierać takie niesprawiedliwe rozwiązanie, twórców nazywając pazernymi, że chcieliby otrzymywać wynagrodzenie za swoją pracę i być podpisywani jako współautorzy. Jednak w dłuższej perspektywie taka monopolizacja czy oligopolizacja twórczości i kreatywności przez korporacje tworzące sztuczną inteligencję będzie miała katastrofalny wpływ na sektor kreatywny, kulturowy, na sztukę, wolną konkurencję, a oprócz tego wypaczać będzie normy prawne.

 

Co można zrobić, aby zapobiec katastrofom wynikającym z obecności AI?

 

Sam Altman, prezes OpenAI, czyli firmy od Czatu GPT, wprost stwierdził, że za regulację technologii sztucznej inteligencji powinny zabierać się społeczeństwa oraz rządy, generalnie instytucje demokratyczne i publiczne, a nie OpenAI, Microsoft, czy inna firma technologiczna. Istnieje bowiem podstawowy konflikt interesów pomiędzy tym, czego chcą firmy – zarabiać pieniądze – a dobrem społecznym. Widać to bardzo wyraźnie na przykładzie Facebooka, Twittera czy TikToka, które nie patrzą na to, że treści i struktura tych platform sprzyja polaryzacji i antagonizacji społecznej, dezinformacji, czy rozwojowi zaburzeń psychicznych. Chociaż ludzie stojący za tymi portalami doskonale wiedzą, że przesiadywanie przed ekranem smartfona czy komputera jest szkodliwe dla zdrowia fizycznego i psychicznego, a do tego konkuruje o czas z aktywnościami takimi, jak spacer, czytanie książki, zabawa, bycie z rodziną czy spotkanie z przyjaciółmi, to i tak rozwijają te platformy w taki sposób, aby jeszcze bardziej przyciągały, wręcz behawioralnie uzależniały nas od ekranów – dla zysków.

 

Facebook czy Twitter mogłyby zmienić swoje algorytmy tak, aby zamiast premiować memy, sensację i awantury w komentarzach, dawały większy zasięg postom z linkami do rozbudowanych artykułów. Niestety same z siebie tego nie zrobią, bo choć byłoby to dobre dla ludzi i społeczeństwa (wyobraźmy sobie, jak wyglądałby dziś dyskurs publiczny, gdyby algorytmy tych platform nie zwiększały zasięgów treściom antagonizującym i polaryzującym), to koncerny w takiej sytuacji mniej by zarabiały. Nie można w najmniejszym stopniu ufać firmom technologicznym, że uregulują się same, wypracowując dobre i etyczne normy samodzielnie. Miały zresztą na to ponad dekadę i nic w tym kierunku nie zrobiły. Zupełnie przeciwnie – zmonopolizowały sporą część Internetu, upowszechniły najgorsze wzorce cyfrowe, zniszczyły większość tradycyjnego blogowania i for internetowych, uzależniły od siebie miliardy ludzi, a inwigilację w Internecie uczyniły zjawiskiem oczywistym.

 

W takiej sytuacji niezbędne jest uregulowanie korporacji technologicznych i technologii sztucznej inteligencji niezależnie – przez instytucje unijne, rządowe i krajowe. Nad Aktem o Usługach Cyfrowych, Aktem o Rynkach Cyfrowych i Aktem o Sztucznej Inteligencji pracują w tej chwili organizacje Unii Europejskiej, w tym przede wszystkim Komisja Europejska i Parlament Europejski. Wiadomo już dziś, że prawa te nie ukrócą licznych patologii, opisanych we wcześniejszych akapitach, takich jak inwigilacja behawioralna, algorytmy premiujące polaryzację i clickbait, czy kradzież własności intelektualnej przez firmy od generatorów AI, gdyż koncerny technologicznie usilnie lobbowały przeciwko prospołecznym i prodemokratycznym rozwiązaniom, wydając na takie „legalne przekupstwo” niesamowite ilości pieniędzy. Akty unijne poprawią nieco sytuację, ale przed politykami i urzędnikami jeszcze długa droga.

 

Pomysłem do rozważenia jest stworzenie czegoś w rodzaju nowych związków meta-zawodowych, na miarę XXI wieku. Korporacje technologiczne z całą mocą uderzyły w konwencjonalne media, odbierając im zasięgi i odbiorców, a także wpływy. Co więcej, algorytmy premiujące clickbait sprawiły, że wielu dziennikarzy siłą rzeczy musi tworzyć sensacyjne treści, szczególnie nagłówki, by publika w ogóle chciała ich czytać. Rozleniwienie wynikające z kroju interfejsów platform społecznościowych doprowadziło zaś do tego, że coraz mniej osób czyta dłuższe artykuły. Krótkie, płytkie teksty, akapity składające się raptem z 2-4 zdań, stały się normą. Ba, obecnie mnóstwo użytkowników już w ogóle nie czyta, poprzestając na oglądaniu krótkich filmików w stylu tych z TikToka, obecnie modnych także na Facebooku, Instagramie i YouTube.

 

Takie meta-zawodowe związki, zrzeszające branże dotknięte negatywnymi skutkami działań korporacji technologicznych, mogłyby zacząć sukcesywnie walczyć na poziomie medialnym, prawniczym i politycznym o to, by np. nielegalne stało się dyskryminowanie postów z linkami do artykułów, podkastów i filmów, poprzez obcinanie im zasięgów, czy o wypłacanie konwencjonalnym mediom kwot pochodzących z reklam, jako że profile tychże mediów generują ruch na platformach. Wyobraźmy sobie, że stacje telewizyjne, radiowe, portale prasowe, blogerzy i podkasterzy formują realną organizację, mającą na celu realizację tego typu zadań. To mogłoby pomóc przywrócić jakościowe dziennikarstwo z grobu.

 

Bardzo pozytywne byłoby również zorganizowanie grupy paneli dyskusyjno-eksperckich zajmujących się sztuczną inteligencją, celem wypracowania wniosków co do korzyści, zagrożeń i sposobów wykorzystania pierwszych i zminimalizowania drugich. W ciałach takich powinni zasiadać nie tylko specjaliści od sztucznej inteligencji, ale również socjologowie, psychologowie, neurobiologowie, kulturoznawcy, literaturoznawcy, teologowie i filozofowie, inżynierowie i inni wykształceni ludzie. Oprócz tego każdy panel powinien brać pod uwagę obecność interdyscyplinarnych nieekspertów, jak i ludzi całkowicie spoza klasy technokratycznej, intelektualistycznej, politycznej czy medialnej, tak aby uwzględnić perspektywę np. robotników, rolników, wielodzietnych rodzin, mieszkańców średnich i małych miejscowości, ludzi zarabiających niewielkie pieniądze itd. Co ważne, należałoby też ograniczyć obecność osób z organizacji pozarządowych, gdyż w tej chwili aktywiści z tychże stali się swego rodzaju społeczną klasą wpływu samą w sobie, roszczącą sobie prawa do niedemokratycznego reprezentowania ogółu. „Inną zupełnie kwestią jest, kto przychodzi na takie konsultacje społeczne, (…). Czy to są rzeczywiście mieszkańcy? Czy osoby z zewnątrz, które promują się na konflikcie? To jest czasami problem na takich spotkaniach, że przychodzą aktywiści, którzy są głośni i, mówiąc kolokwialnie, rozwalają spotkanie, uniemożliwiają jego konstruktywny i merytoryczny przebieg, a tak naprawdę wcale nie reprezentują społeczności miejscowej lub tylko niewielką jej część” – zauważyła w czym rzecz dr Karolina Królikowska, w odniesieniu do problematyki energetycznej.

 

Tak jak w XX wieku całe dekady trwała batalia z koncernami tytoniowymi, alkoholowymi czy naftowymi, tak XXI wiek prawdopodobnie będzie okresem podobnej walki o prawo, prawdę i dobro społeczne, ale z korporacjami technologicznymi.

 

Powyższy artykuł powstał wyłącznie w celach informacyjnych i nie jest reklamą. Nie ponosimy żadnych korzyści finansowych, ani innych korzyści związanych z jego publikacją.

Autor:  Łukasz Sakowski /  Autor bloga totylkoteoria.pl 

Najnowsze posty