Przemówienie papieża Franciszka na szczycie G7 | 14 czerwca 2024

Rok: 2024
Autor: Papież Franciszek

Fascynujące i groźne narzędzie

Szanowne Panie, Dostojni Panowie!

Zwracam się dziś do was, Przywódców Forum Międzyrządowego G7, z refleksją na temat wpływu sztucznej inteligencji na przyszłość ludzkości.

„Pismo Święte zaświadcza, że Bóg dał ludziom swego Ducha, aby posiadali «mądrość, rozum, wiedzę i znajomość wszelkiego rzemiosła» (Wj 35, 31)”[1]. Nauka i technologia są zatem niezwykłymi produktami twórczego potencjału nas, istot ludzkich[2].

Zatem, właśnie z wykorzystania tego twórczego potencjału, który dał nam Bóg, rodzi się sztuczna inteligencja.

Jak wiadomo, jest ona narzędziem niezwykle potężnym, wykorzystywanym w bardzo wielu obszarach ludzkiego działania: od medycyny po świat pracy, od kultury po sferę komunikacji, od edukacji po politykę. I można teraz bezpiecznie założyć, że jego wykorzystanie będzie w coraz większym stopniu wpływać na nasz sposób życia, nasze relacje społeczne, a w przyszłości nawet na sposób, w jaki pojmujemy naszą tożsamość jako istoty ludzkiej[3].

Temat sztucznej inteligencji jest jednak często postrzegany jako ambiwalentny: z jednej strony fascynuje możliwościami, jakie oferuje, a z drugiej generuje lęk przed konsekwencjami, jakie zapowiada. W związku z tym można powiedzieć, że w nas wszystkich, choć w różnym wymiarze, przeplatają się dwa uczucia: jesteśmy nastawieni entuzjastycznie, gdy wyobrażamy sobie postęp, jaki można uzyskać dzięki sztucznej inteligencji, ale jednocześnie odczuwamy lęk, gdy widzimy zagrożenia związane z jej użyciem[4].

Zresztą, nie możemy wątpić, że pojawienie się sztucznej inteligencji stanowi prawdziwą rewolucję poznawczo-przemysłową, która przyczyni się do stworzenia nowego systemu społecznego, charakteryzującego się złożonymi przemianami epokowymi. Na przykład, sztuczna inteligencja może pozwolić na demokratyzację dostępu do wiedzy, gwałtowny postęp badań naukowych, możliwość powierzenia uciążliwych prac maszynom; ale jednocześnie może przynieść ze sobą większą niesprawiedliwość między krajami rozwiniętymi a rozwijającymi się, między dominującymi a uciskanymi warstwami społecznymi, zagrażając w ten sposób możliwości „kultury spotkania”, a sprzyjając „kulturze odrzucenia”.

Zakres tych złożonych przemian jest oczywiście powiązany z szybkim rozwojem technologicznym samej sztucznej inteligencji.

To właśnie ten dynamiczny postęp technologiczny sprawia, że sztuczna inteligencja jest narzędziem, które jest jednocześnie fascynujące i groźne i wymaga refleksji na miarę sytuacji.

Być może moglibyśmy zacząć od spostrzeżenia, że sztuczna inteligencja jest przede wszystkim narzędziem. I spontanicznie nasuwa się stwierdzenie, że korzyści lub szkody, jakie przyniesie, będą zależeć od jej zastosowania.

Jest to z pewnością prawda, ponieważ tak było w przypadku każdego narzędzia zbudowanego przez istoty ludzkie od zarania dziejów.

Ta nasza zdolność do konstruowania narzędzi, w ilości i złożoności niespotykanej pośród istot żywych, sprawia, że można mówić o kondycji techniczno-ludzkiej: istota ludzka zawsze utrzymywała relację ze środowiskiem, zapośredniczoną przez narzędzia, jakie stopniowo tworzyła. Nie da się oddzielić historii człowieka i cywilizacji od historii tych narzędzi. Niektórzy chcieli odczytać w tym wszystkim rodzaj braku, niedoboru istoty ludzkiej, tak jakby z powodu tego niedoboru zmuszona była stworzyć technologię[5]. W rzeczywistości, uważne i obiektywne spojrzenie pokazuje nam coś wręcz przeciwnego. Żyjemy w stanie „przekraczania siebie” w odniesieniu do naszej biologicznej istoty; jesteśmy istotami pozbawionymi równowagi w stosunku do tego, co na zewnątrz nas, rzeczywiście, radykalnie otwartymi na to, co poza nami. To stąd bierze początek nasza otwartość na innych i na Boga; to stąd wyrasta twórczy potencjał naszej inteligencji w zakresie kultury i piękna; stąd, w końcu, pochodzi nasza zdolność techniczna. Technologia jest więc śladem tego naszego stanu „przekraczania siebie”.

Jednak korzystanie z naszych narzędzi nie zawsze jest jednoznacznie ukierunkowane na dobro. Nawet jeśli istota ludzka czuje w sobie powołanie do przekraczania siebie i do wiedzy przeżywanej jako narzędzie dobra w służbie braciom i siostrom oraz wspólnemu domowi (por. Gaudium et spes, 16), nie zawsze tak się dzieje. Wręcz przeciwnie, nierzadko, właśnie z powodu swojej radykalnej wolności, ludzkość wypaczyła cel swojego istnienia, stając się wrogiem samej siebie i planety[6]. Ten sam los może spotkać narzędzia technologiczne. Tylko wtedy, gdy zagwarantuje się ich powołanie do służby człowiekowi, narzędzia technologiczne ukażą nie tylko wielkość i wyjątkową godność istoty ludzkiej, ale także zadanie, jaki ona otrzymała, aby „pielęgnować i strzec” (por. Rdz 2, 15) planety i wszystkich jej mieszkańców. Mówienie o technologii jest mówieniem o tym, co oznacza bycie człowiekiem, a zatem o naszej wyjątkowej kondycji między wolnością a odpowiedzialnością, to znaczy mówienie o etyce.

Kiedy nasi przodkowie ostrzyli krzemienne kamienie, aby skonstruować noże, używali ich zarówno do cięcia skóry na ubrania, jak i do zabijania się nawzajem. To samo można by powiedzieć o innych, znacznie bardziej zaawansowanych technologiach, takich jak energia wytwarzana przez fuzję atomów, taką jaka zachodzi na Słońcu, która z pewnością mogłaby zostać wykorzystana do produkcji czystej, odnawialnej energii, ale także do sprowadzenia naszej planety do stosu popiołu.

Sztuczna inteligencja jest jednak narzędziem jeszcze bardziej złożonym. Powiedziałbym wręcz, że jest to narzędzie sui generis. Tak więc, podczas gdy użycie prostego narzędzia (takiego jak nóż) jest pod kontrolą istoty ludzkiej, która go używa, i tylko od niej zależy jego dobre użycie, to sztuczna inteligencja, przeciwnie, może autonomicznie dostosowywać się do przydzielonego jej zadania i, jeśli jest zaprojektowana w ten sposób, dokonywać wyborów niezależnych od istoty ludzkiej, aby osiągnąć wyznaczony cel[7].

Należy zawsze pamiętać, że maszyna może, w pewnych formach i za pomocą tych nowych środków, dokonywać wyborów algorytmicznych. To, co robi maszyna, jest jednym wyborem technicznym spośród wielu możliwości, i opiera się albo na dobrze zdefiniowanych kryteriach, albo na wnioskach statystycznych. Natomiast istota ludzka nie tylko wybiera, ale jest zdolna do podejmowania decyzji w sercu. Decyzja jest elementem, który moglibyśmy nazwać bardziej strategicznym niż jakiś wybór, i wymaga ona praktycznej oceny. Czasami, często w trudnym zadaniu rządzenia, jesteśmy wezwani do podjęcia decyzji, które będą miały konsekwencje także dla wielu osób. Ludzka refleksja od zawsze mówi w tym względzie o mądrości, o phronesis filozofii greckiej i przynajmniej częściowo o mądrości Pisma Świętego. W obliczu cudów maszyn, które zdają się być zdolne do samodzielnego wyboru, musimy sobie wyraźnie uświadomić, że istocie ludzkiej zawsze należy pozostawić decyzję, nawet z odcieniem dramatycznym i naglącym, jakie czasami są obecne w naszym życiu. Skazalibyśmy ludzkość na przyszłość bez nadziei, gdybyśmy pozbawili ludzi zdolności do decydowania o sobie i swoim życiu, skazując ich na zależność od wyborów dokonywanych przez maszyny. Potrzebujemy gwarancji i ochrony pewnej przestrzeni znaczącej kontroli dokonywanej przez istoty ludzkie, nad procesem wyboru programów sztucznej inteligencji: chodzi w tym o samą godność ludzką.

Właśnie w tej kwestii pozwólcie mi, że będę nalegał: w dramacie, jakim jest konflikt zbrojny, należy pilnie przemyśleć rozwój i wykorzystanie urządzeń takich jak tak zwana „śmiercionośna broń autonomiczna”, aby zakazać ich używania, począwszy już od faktycznego i konkretnego zobowiązania do wprowadzenia coraz bardziej znaczącej ludzkiej kontroli. Żadna maszyna nie powinna nigdy decydować, czy odebrać życie istocie ludzkiej.

Co więcej, należy dodać, że właściwe wykorzystanie, przynajmniej zaawansowanych form sztucznej inteligencji, nie będzie w pełni kontrolowane ani przez użytkowników, ani przez programistów, którzy zdefiniowali ich pierwotny cel w chwili ich opracowania. Tym bardziej, że jest wysoce prawdopodobne, iż w niedalekiej przyszłości programy sztucznej inteligencji będą w stanie komunikować się bezpośrednio ze sobą w celu udoskonalenia swoich osiągnięć. I jeśli w przeszłości ludzie, którzy projektowali proste narzędzia, widzieli, jak kształtują one ich egzystencję – nóż pozwolił im przetrwać zimno, ale także rozwinąć sztukę wojenną – teraz, gdy ludzie zaprojektowali złożone narzędzie, zobaczą, jak to ostatnie jeszcze bardziej kształtuje ich egzystencję[8].

Podstawowy mechanizm sztucznej inteligencji

Chciałbym teraz zatrzymać się krótko nad złożonością sztucznej inteligencji. W swojej istocie, sztuczna inteligencja jest narzędziem zaprojektowanym do rozwiązywania problemów i funkcjonuje za pomocą logicznego łańcucha operacji algebraicznych, przeprowadzanych na kategoriach danych, które są porównywane w celu odkrycia korelacji, poprawiając ich wartość statystyczną, dzięki procesowi samodzielnego uczenia się, opartemu na poszukiwaniu dalszych danych i samodzielnej modyfikacji jego procedur obliczeniowych.

Sztuczna inteligencja jest zatem zaprojektowana do rozwiązywania specyficznych problemów, jednak u tych, którzy jej używają, pojawia się często nieodparta pokusa wyciągania ogólnych wniosków z konkretnych rozwiązań, jakie proponuje, nawet natury antropologicznej.

Dobrym przykładem jest wykorzystanie programów zaprojektowanych aby pomagać sędziom w podjęciu decyzji o przyznaniu aresztu domowego więźniom odbywającym karę w zakładzie karnym. W tym przypadku wymaga się od sztucznej inteligencji przewidywania prawdopodobieństwa ponownego popełnienia przestępstwa przez skazanego, na podstawie wcześniej określonych kategorii (rodzaj przestępstwa, zachowanie w więzieniu, ocena psychologiczna i inne), pozwalając sztucznej inteligencji na dostęp do kategorii danych związanych z życiem prywatnym skazanego (pochodzenie etniczne, poziom wykształcenia, linia kredytowa i inne). Korzystanie z takiej metodologii – która czasami grozi przekazaniem de facto maszynie ostatniego słowa w sprawie losu danej osoby – może domyślnie nieść ze sobą odniesienie do uprzedzeń, nieodłącznie związanych z kategoriami danych wykorzystywanych przez sztuczną inteligencję.

Bycie zaklasyfikowanym do określonej grupy etnicznej lub, bardziej prozaicznie, popełnienie drobnego przestępstwa wiele lat wcześniej (niezapłacenie, na przykład, mandatu za nieprawidłowe parkowanie), w rzeczywistości wpłynie na decyzję o przyznaniu aresztu domowego. Jednakże istota ludzka cały czas ewoluuje i potrafi zaskakiwać swoimi działaniami, czego maszyna nie jest w stanie wziąć pod uwagę.

Należy również zauważyć, że zastosowania podobne do właśnie wspomnianego, zostaną przyspieszone przez fakt, że programy sztucznej inteligencji będą w coraz większym stopniu wyposażone w zdolność do bezpośredniej interakcji z ludźmi (chatboty), prowadząc z nimi rozmowy i nawiązując z nimi relacje bliskości, często bardzo przyjemne i kojące, ponieważ te programy sztucznej inteligencji zostaną zaprojektowane tak, aby nauczyć się odpowiadać w formie spersonalizowanej na fizyczne i psychologiczne potrzeby istot ludzkich.

Zapominanie, że sztuczna inteligencja nie jest inną istotą ludzką, i że ona nie może zaproponować ogólnych zasad, jest często poważnym błędem, który wynika albo z głębokiej potrzeby istot ludzkich do znalezienia stabilnej formy towarzystwa, albo z ich podświadomego założenia, czyli założenia, że obserwacje uzyskane za pomocą mechanizmu obliczeniowego są obdarzone cechami niekwestionowanej pewności i niewątpliwej uniwersalności.

To założenie jest jednak ryzykowne, jak pokazuje analiza nieodłącznych ograniczeń samych obliczeń. Sztuczna inteligencja wykorzystuje operacje algebraiczne, które mają być wykonywane zgodnie z logiczną sekwencją (np. jeśli wartość X jest większa niż wartość Y, pomnóż X przez Y; w przeciwnym razie podziel X przez Y). Ta metoda obliczeń – tak zwany „algorytm” – nie jest ani obiektywna, ani neutralna[9]. Opierając się na algebrze, może jedynie badać rzeczywistość sformalizowaną w kategoriach liczbowych[10].

Co więcej, nie należy zapominać, że algorytmy zaprojektowane do rozwiązywania bardzo złożonych problemów są tak zaawansowane, że samym programistom sprawia trudność dokładne zrozumienie, w jaki sposób osiągają swoje wyniki. Ta tendencja do wyrafinowania grodzi znacznym przyspieszeniem wraz z wprowadzeniem komputerów kwantowych, które nie będą działać w oparciu o obwody binarne (półprzewodniki lub mikroprocesory), ale według dość złożonych praw fizyki kwantowej. Z drugiej strony, ciągłe wprowadzanie coraz bardziej wydajnych mikroprocesorów już stało się jedną z przyczyn dominacji wykorzystania sztucznej inteligencji przez kilka krajów, które są w nią wyposażone.

Niezależnie od tego, czy są one wyrafinowane, czy nie, jakość odpowiedzi udzielanych przez programy sztucznej inteligencji ostatecznie zależy od danych, z których one korzystają, i od tego, jak są ustrukturyzowane.

Na koniec pozwolę sobie wskazać jeszcze jeden obszar, w którym wyraźnie ujawnia się złożoność mechanizmu tak zwanej generatywnej sztucznej inteligencji (Generative Artificial Intelligence). Nikt nie ma wątpliwości, że obecnie dostępne są wspaniałe narzędzia dostępu do wiedzy, które pozwalają nawet na samouczenie się i samokształcenie w niezliczonych dziedzinach. Wielu z nas było pod wrażeniem aplikacji, łatwo dostępnych online, do komponowania tekstu lub tworzenia obrazu na dowolny temat. Szczególnie przyciągają one uwagę uczniów, którzy, gdy muszą przygotować wypracowania, korzystają z nich zbyt często.

Ci uczniowie, którzy często są znacznie lepiej przygotowani i przyzwyczajeni do korzystania ze sztucznej inteligencji niż ich profesorowie, zapominają jednak, że tak zwana generatywna sztuczna inteligencja, ściśle mówiąc, nie jest tak naprawdę „generatywna”. W rzeczywistości, przeszukuje ona big data w poszukiwaniu informacji i przetwarza je w żądanym od niej stylu. Nie opracowuje nowych koncepcji ani analiz. Powtarza te, które znajdzie, nadając im atrakcyjną formę. A im częściej znajduje powtarzające się pojęcie lub hipotezę, tym bardziej uważa je za uzasadnione i ważne. Jest ona zatem nie tyle „generatywna” ile „utrwalająca”, w tym sensie, że porządkuje istniejące treści, pomagając je skonsolidować, często nie sprawdzając, czy zawierają błędy lub z góry przyjęte koncepcje.

W ten sposób nie tylko pojawia się ryzyko legitymizacji fałszywych wiadomości (fake news) i wzmocnienia przewagi jakiejś dominującej kultury, ale także podważa to w istocie proces edukacyjny. Edukacja, która powinna zapewnić uczniom możliwość autentycznej refleksji, może zostać sprowadzona do powtarzania pojęć, które będą coraz częściej oceniane jako niebudzące zastrzeżeń, jedynie z powodu ich ciągłego powtarzania[11].

Postawienie w centrum godności osoby w perspektywie wspólnej propozycji etycznej

Do tego, co zostało już powiedziane, należy teraz dodać spostrzeżenie bardziej ogólne. Okres innowacji technologicznych, przez który obecnie przechodzimy, idzie w parze ze szczególną i bezprecedensową sytuacją społeczną: coraz trudniej znaleźć porozumienie w głównych kwestiach życia społecznego. Nawet w społecznościach charakteryzujących się pewną ciągłością kulturową, często dochodzi do gorących debat i konfrontacji, co utrudnia tworzenie wspólnych refleksji i rozwiązań politycznych, mających na celu poszukiwanie tego co dobre i sprawiedliwe. Poza złożonością słusznych wizji, które charakteryzują ludzką rodzinę, pojawia się czynnik, który wydaje się łączyć te różne przypadki. Mamy do czynienia z utratą, lub przynajmniej przysłonięciem, poczucia człowieczeństwa i pozorną nieistotnością pojęcia godności ludzkiej[12]. Wydaje się, że zatraca się wartość i głębokie znaczenie jednej z podstawowych kategorii Zachodu: kategorii osoby ludzkiej. I oto w tym okresie, w którym programy sztucznej inteligencji poddają w wątpliwość istotę ludzką i jej działanie, to właśnie słabość etosu związanego z postrzeganiem wartości i godności osoby ludzkiej, może być największym vulnus (słabością) we wdrażaniu i rozwoju tych systemów. Nie możemy zapominać, że żadna innowacja nie jest neutralna. Technologia rodzi się w określonym celu i jej wpływ na społeczeństwo ludzkie zawsze reprezentuje pewną formę ładu w relacjach społecznych i układ władzy, umożliwiając niektórym wykonywanie działań i uniemożliwiając innym wypełnianie innych czynności. Ten konstytutywny wymiar władzy technologii zawsze obejmuje, w mniej lub bardziej wyraźny sposób, światopogląd tych, którzy ją zrealizowali i wypracowali.

Dotyczy to również programów sztucznej inteligencji. Aby były one narzędziami budowania dobra i lepszego jutra, muszą być zawsze ukierunkowane na dobro każdego człowieka. Muszą być inspirowane etycznie.

Etyczna decyzja to taka, która bierze pod uwagę nie tylko skutki danego działania, ale także wchodzące w grę wartości, i obowiązki, które z tych wartości wynikają. Dlatego z zadowoleniem przyjąłem podpisanie Rzymskiego apelu o etykę AI w 2020 r.[13] i jego poparcie dla tej formy etycznego moderowania algorytmów i programów sztucznej inteligencji, które nazwałem „algoretyką”[14]. W pluralistycznym i globalnym kontekście, w którym widoczne są również różne wrażliwości i wielorakie hierarchie w skalach wartości, znalezienie jednej hierarchii wartości wydaje się trudne. Jednak w analizie etycznej możemy również uciec się do innych rodzajów narzędzi: jeśli mamy trudności ze zdefiniowaniem jednego zestawu globalnych wartości, możemy jednak znaleźć wspólne zasady, za pomocą których można rozwiązać wszelkie dylematy lub konflikty życia.

Z tego powodu zrodził się Rzymski apel: w terminie „algoretyka” skupia się zestaw zasad, które okazują się globalną i pluralistyczną platformą, zdolną do znalezienia wsparcia ze strony kultur, religii, organizacji międzynarodowych i dużych koncernów, kluczowych uczestników tego rozwoju.

Polityka, jakiej potrzebujemy

Nie możemy zatem ukrywać konkretnego zagrożenia, ponieważ jest ono nieodłączne od jego podstawowego mechanizmu, mianowicie, że sztuczna inteligencja ograniczy wizję świata do rzeczywistości wyrażalnej w liczbach i zamkniętej w gotowych kategoriach, wypierając wkład innych form prawdy i narzucając jednolite modele antropologiczne, społeczno-ekonomiczne i kulturowe. Paradygmat technologiczny, którego ucieleśnieniem jest sztuczna inteligencja, niesie ze sobą ryzyko ustąpienia miejsca znacznie bardziej niebezpiecznemu paradygmatowi, który zidentyfikowałem już jako „paradygmat technokratyczny”[15]. Nie możemy pozwolić, aby narzędzie tak potężne i niezbędne jak sztuczna inteligencja, wzmocniło ten paradygmat; wręcz przeciwnie, musimy uczynić sztuczną inteligencję bastionem właśnie przeciwko jego ekspansji.

I to właśnie tutaj pilnie potrzebne są działania polityczne, jak przypomina encyklika Fratelli tutti. Z pewnością „dla wielu polityka jest dziś brzydkim słowem i nie można ignorować, że często za tym faktem kryją się błędy, korupcja i nieskuteczność niektórych polityków. Dochodzą do tego strategie, które mają na celu jej osłabienie, zastąpienie jej gospodarką lub zdominowanie jej jakąś ideologią. Ale czy jednak świat może funkcjonować bez polityki? Czy może istnieć skuteczna droga do powszechnego braterstwa i pokoju społecznego bez dobrej polityki?”[16].

Nasza odpowiedź na te ostatnie pytania brzmi: nie! Polityka jest potrzebna! Chcę przy tej okazji powtórzyć, że „w obliczu tak wielu małostkowych i doraźnych form polityki […] wielkość polityczna ukazuje się wtedy, gdy w trudnych chwilach działamy w oparciu o wielkie zasady i myślimy długofalowo o dobru wspólnym. Władzy politycznej bardzo trudno przyjąć ten obowiązek w planie narodowym, a tym bardziej we wspólnym projekcie dla obecnej i przyszłej ludzkości”[17].

Szanowne Panie, Dostojni Panowie!

Niniejsza refleksja na temat wpływu sztucznej inteligencji na przyszłość ludzkości, prowadzi nas zatem do rozważenia znaczenia „zdrowej polityki”, aby patrzeć w naszą przyszłość z nadzieją i ufnością. Jak już powiedziałem w innym miejscu, „globalne społeczeństwo ma poważne braki strukturalne, których nie można rozwiązywać za pomocą łatek lub szybkich, czysto okazjonalnych napraw. Są kwestie, które trzeba zmienić poprzez gruntowne przemyślenia i poważne transformacje. Może do tego doprowadzić jedynie zdrowa polityka, angażując najbardziej zróżnicowane sektory i najbardziej różnorodne dziedziny wiedzy. W ten sposób gospodarka zintegrowana w ramach projektu politycznego, społecznego, kulturalnego i ludowego, dążącego do dobra wspólnego, może «otworzyć nowe drogi dla różnych możliwości, które nie oznaczają powstrzymywania kreatywności człowieka i jego marzeń o postępie, a raczej ukierunkowują tę energię w nowy sposób» (Laudato si’, 191)”[18].

Tak jest właśnie w przypadku sztucznej inteligencji. Obowiązkiem każdego jest jej dobre wykorzystanie, a do obowiązków polityki należy stworzenie warunków, w których takie dobre wykorzystanie będzie możliwe i owocne.

Dziękuję.

__________________

[1] Orędzie na 57. Światowy Dzień Pokoju, 1 stycznia 2024, 1.

[2] Por. tamże.

[3] Por. tamże, 2.

[4] Tę ambiwalencję dostrzegał już papież Paweł VI, w swoim przemówieniu do pracowników Ośrodka Automatyzacji Analizy Językowej Aloysianum, 19 czerwca 1964.

[5] Por. A. GEHLEN, L’uomo. La sua natura e il suo posto nel mondo, Milano 1983, 43.

[6] Enc. Laudato si’ (24 maja 2015), 102-114.

[7] Por. Orędzie na 57 Światowy Dzień Pokoju, 1 stycznia 2024, 3.

[8] Szczególnie istotne dla konsekwencji korzystania ze sztucznej inteligencji są spostrzeżenia Marshalla McLuhana i Johna M. Culkina.

[9] Por. Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020.

[10] Por. Orędzie na 57. Światowy Dzień Pokoju, 1 stycznia 2024, 4.

[11] Por. tamże, 3 i 7.

[12] Por. Dykasteria Nauki Wiary, Deklaracja Dignitas infinita o godności człowieka (2 kwietnia 2024).

[13] Por. Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020.

[14] Por. Discorso ai partecipanti al Convegno “Promoting Digital Child Dignity – From Concet to Action”, 14 novembre 2019; Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020.

[15] Aby uzyskać szersze omówienie, odsyłam do mojej encykliki Laudato si’ o trosce o wspólny dom z 24 maja 2015 r.

[16] Enc. Fratelli tutti, O braterstwie i przyjaźni społecznej ( 3 października 2020), 176.

[17] Tamże, 178.

[18] Tamże, 179.

st

Nasza strona internetowa używa plików cookies (tzw. ciasteczka) w celach statystycznych, reklamowych oraz funkcjonalnych. Możesz określić warunki przechowywania cookies na Twoim urządzeniu za pomocą ustawień przeglądarki internetowej.
Administratorem danych osobowych użytkowników Serwisu jest Katolicka Agencja Informacyjna sp. z o.o. z siedzibą w Warszawie (KAI). Dane osobowe przetwarzamy m.in. w celu wykonania umowy pomiędzy KAI a użytkownikiem Serwisu, wypełnienia obowiązków prawnych ciążących na Administratorze, a także w celach kontaktowych i marketingowych. Masz prawo dostępu do treści swoich danych, ich sprostowania, usunięcia lub ograniczenia przetwarzania, wniesienia sprzeciwu, a także prawo do przenoszenia danych. Szczegóły w naszej Polityce prywatności.