W opublikowanym we wtorek w Watykanie dokumencie "Antiqua et Nova" znajdują się odniesienia do słów papieża o tym, że sztucznej inteligencji nie należy traktować jako osoby i nie może ona zastępować relacji międzyludzkich. Ma ona według Franciszka jedno zadanie: być wykorzystywana "tylko jako narzędzie uzupełniające inteligencję ludzką".
Nota adresowana do rodziców, nauczycieli, duchowieństwa oraz ekspertów została zaaprobowana przez papieża.
W 117 paragrafach omówiono w niej wyzwania i szanse, wynikające z rozwoju AI w takich dziedzinach jak edukacja, ekonomia, praca, służba zdrowia, relacje międzynarodowe i między osobami, a także w kontekście wojny.
Pomóż w rozwoju naszego portalu
W tej ostatniej kwestii, zaznaczyły watykańskie urzędy, potencjał sztucznej inteligencji może doprowadzić do zwiększenia zasobów militarnych, "wyrywających się spod kontroli" ludzi i do "destabilizującego wyścigu zbrojeń z katastrofalnymi konsekwencjami dla praw człowieka".
Oprócz wyzwań odnotowuje się także zaniepokojenie ze względu na nieprzewidywalne skutki wykorzystania AI, także jeśli chodzi o przetwarzanie tekstów i obrazów.
Sztuczna inteligencja według autorów analizy ocenia osoby tylko na podstawie pracy i rezultatów, podczas gdy nie można pominąć godności człowieka.
Za "mylące" uznaje się wręcz użycie słowa: "inteligencja" w odniesieniu do AI, gdyż nie jest to "sztuczna forma inteligencji", ale "jeden z jej produktów". Podobne stanowisko przedstawił wcześniej Franciszek.
W dokumencie mowa jest również o tym, że AI jak każdy produkt ludzkiego umysłu może być wykorzystana w celach pozytywnych lub negatywnych.
Reklama
W "Antiqua et Nova" stwierdza się, że sztuczna inteligencja może doprowadzić do "znaczących innowacji" na różnych polach, lecz niesie też z sobą ryzyko zwiększenia marginalizacji, dyskryminacji, ubóstwa, nierówności społecznych oraz wywołuje "etyczne zaniepokojenie".
Niepokój ten wynika przede wszystkim z tego, że "większa część władzy nad głównymi aplikacjami AI skupiona jest w nielicznych potężnych firmach". W ten sposób technologia ta może być manipulowana dla "zysków osobistych i firmowych" - ostrzega Watykan.
W części na temat wojny odnotowuje się, że "możliwości analityczne" AI mogłyby zostać wykorzystane jako pomoc dla narodów w dążeniu do pokoju i bezpieczeństwa. Ale za "poważny powód zaniepokojenia etycznego" uważa się autonomiczne i śmiercionośne systemy broni, zdolne do "zidentyfikowania celów bez bezpośredniej interwencji człowieka".
Przypomina się, że w wystąpieniu na szczycie przywódców G7 w zeszłym roku papież zaapelował o zakazanie takiej broni, mówiąc: "żadna maszyna nie może nigdy zdecydować o tym, czy odebrać życie istocie ludzkiej".
Watykańskie instytucje alarmują: takie technologie "przyznają niekontrolowaną siłę destrukcyjną na wojnie, która uderza w wielu niewinnych cywilów nie oszczędzając nawet dzieci".
Dodano, że po to, by nie dopuścić do tego, aby ludzkość wpadła w "spiralę autodestrukcji" należy "zająć wyraźne stanowisko przeciwko wszystkim aplikacjom technologicznym, które zagrażają życiu i godności osoby".
W części poświęconej relacjom między ludźmi mowa jest o tym, że AI może "sprzyjać połączeniom", ale także doprowadzić do "szkodliwej izolacji" z negatywnym wpływem na rozwój dzieci.
Za "głęboko niemoralne" uważa się w oświadczeniu wykorzystanie AI w takich przypadkach, jak edukacja, włącznie ze sferą seksualną.
Reklama
Ponadto Watykan kładzie nacisk na konieczność czujności w dziedzinie ekonomii i finansów. Jak argumentuje, z jednej pojawia się szansa stworzenia nowych miejsc pracy, ale z drugiej - ryzyko "dyskwalifikacji pracowników i poddania ich zautomatyzowanemu nadzorowi" oraz "zduszenia" wszelkiej innowacyjnej zdolności.
"Nie należy dążyć zawsze do coraz większego zastąpienia pracy ludzkiej przez postęp technologiczny; w ten sposób ludzkość sama wyrządziłaby sobie szkodę" - to jeden z wniosków dokumentu.
Jest w nim też ostrzeżenie przed niebezpieczeństwem tzw. fake news i deepfake, tworzonymi przez AI oraz naruszania prywatności i "intymności" osób.
Z Watykanu Sylwia Wysocka(PAP)
sw/ mal/