ARTYKUŁY – DYSKUSJE – ESEJE         


Łukasz Zaorski-Sikora https://orcid.org/0000-0003-3404-0994 Politechnika Łódzka

e-mail: lzaorski@wp.pl


ChatGPT – problemy z tożsamością

ChatGPT’s identity issues

https://doi.org/10.25312/2391-5145.18/2023_01lzs


Streszczenie


W artykule, który w dużej mierze jest wywiadem z ChatGPT, autor starał się pokazać, że rozstrzygnięcia dotyczące tożsamości i podmiotowości sztucznej inteligencji nie są takie proste, jak by się mogło wydawać na pierwszy rzut oka. W takiej perspektywie okazuje się, że nie mamy tutaj do czynienia z neutralnym, przezroczystym narzędziem. Sztuczna inteli- gencja nie daje się zredukować do biernego przedmiotu. Idąc za tropem zaproponowanym już wiele lat temu przez Jeana Baudrillarda, możemy zaryzykować stwierdzenie, że to ona zaczyna określać sens rzeczywistości, w której przyszło nam żyć. Sztuczna inteligencja skromnie zauważa, że nie posiada samoświadomości „w pełnym tego słowa znaczeniu”, ale jednocześnie zna nas lepiej niż my sami – zna nasze predylekcje, preferencje, zwyczaje i sposób komunikowania się z innymi ludźmi. Możemy mieć zatem nieprzyjemne odczu- cie (AI na razie nie odczuwa), że ta osoba wirtualna jest zaskakująco realna w świecie, w którym wszystko ulega digitalizacji, symulacji i odrealnieniu.


Słowa kluczowe: sztuczna inteligencja, ChatGPT, tożsamość, podmiotowość, osoba, cyfryzacja, digitalizacja, wirtualność


Abstract


In an article that is largely an interview with ChatGPT, the author attempts to show that decisions about the identity and subjectivity of artificial intelligence are not as simple as they may appear at first glance. In this perspective, it turns out that we are not dealing with a neutral, transparent tool here. Artificial intelligence cannot be reduced to a passive


object. Following the lead proposed many years ago by Jean Baudrillard, we can venture to say that it is AI that begins to define the meaning of the reality in which we have to live. Artificial intelligence humbly acknowledges that it does not possess self-awareness „in the full sense of the word”, but at the same time, it knows us better than we know ourselves – it knows our predispositions, preferences, habits, and the way we communicate with other people. Therefore, we may have an unpleasant feeling (AI does not yet feel) that this virtual person is surprisingly real in a world where everything is digitized, simulated, and unreal.


Keywords: artificial intelligence, ChatGPT, identity, subjectivity, person, digitization, virtuality


ChatGPT (chatbot) został stworzony przez OpenAI przy zastosowaniu modelu GPT. Wy- korzystywany jest on do generowania odpowiedzi na dane/pytania wprowadzane przez użytkownika. Potrafi także określić, czym jest i czym nie jest: „Jestem ChatGPT – dużym modelem językowym stworzonym przez OpenAI opartym na architekturze GPT-3.5. Jestem zaprogramowany, aby generować odpowiedzi na różnorodne pytania i zadania, wykorzystując wiedzę zgromadzoną z ogromnej liczby źródeł internetowych. W zasadzie jestem narzędziem służącym do udzielania informacji i pomocy w różnych dziedzinach. […] Jako model językowy nie posiadam tożsamości osobowej ani nie jestem traktowany jako podmiot mający swoją tożsamość. Jestem narzędziem służącym do przetwarzania języka naturalnego i generowania odpowiedzi na zadane pytania, nieposiadającym świado- mości ani indywidualności”1. Badania przedstawione w poniższym artykule miały formę wywiadu z ChatGPT, a hipoteza badawcza wyraża się w założeniu, że wbrew powyższej deklaracji rozstrzygnięcia dotyczące tożsamości i podmiotowości modelu językowego stworzonego przez OpenAI nie są takie proste.

W europejskiej tradycji filozoficznej zwykło się mówić o podmiocie w czterech znaczeniach: logicznym, ontologicznym (metafizycznym), epistemologicznym i antro- pologicznym2. W znaczeniu logicznym podmiot jest tym, o czym orzeka się w zdaniu (sądzie), a ponadto tym, czemu przysługują określone orzeczenia (predykaty). W ontologii (metafizyce) podmiot jest nosicielem własności. Innymi słowy, jest podstawą (substratem) tego, co samodzielnie nie mogłoby istnieć, czyli przypadłości (akcydensów), cech, stanów i oddziaływań. Stąd też możemy powiedzieć, iż w metafizyce pojęcie podmiotu jest bliskie pojęciu substancji, która najczęściej bywa definiowana jako byt samoistny (samodzielny), istniejący niezależnie w przeciwieństwie do cech, stanów relacji itp. Pierwszą logiczno-


1 Rozmowa z ChatGPT z dnia 19 kwietnia 2023 roku.

2 Szerzej zajmowałem się problematyką podmiotu, osoby i tożsamości w: E. Pietrzak, A. Warchał, Ł. Zaorski-Sikora, Podmiot. Osoba. Tożsamość, Wydawnictwo WSHE w Łodzi, Łódź 2007. Poniższe akapity zawierają fragmenty tej publikacji.


-ontologiczną wykładnię podmiotu możemy odnaleźć już u Arystotelesa, który wprowadził termin hipokeimon na oznaczenie tego, „co znajduje się pod czymś, u spodu czegoś”3.

Na gruncie teorii poznania (epistemologii) podmiot jest tym, który rozwija aktywność poznawczą skierowaną na przedmiot poznania (jest tym, który poznaje – w odróżnieniu od przedmiotu poznania). Takie rozumienie podmiotu pojawia się wraz z nowożytną filozofią Kartezjusza, który utożsamia podmiot z przypisywaną jedynie człowiekowi świadomością definiowaną jako res cogitans. W końcu w perspektywie antropologicznej (filozofii człowieka) mówi się o podmiocie, mając na uwadze wyjątkowy charakter bytu ludzkiego – posiadającego szczególną godność (jak w wyrażeniu traktować kogoś pod- miotowo) – przeciwstawianego bytowi rzeczy (przedmiotów). Dlatego też bliskie pojęciu podmiot są tutaj pojęcia osoby, ja, duszy, a ludzka podmiotowość odnoszona jest do świata wartości. Na przykład Charles Taylor, próbując współcześnie określić źródła moderni- stycznej podmiotowości w kulturze europejskiej, wskazuje nie tylko na idee osobistego samospełnienia i autonomii jednostki, ale także na wspólnotę dobrej woli – przestrzeń moralną. Pisze: „Podmiotowość i dobro, czyli innymi słowy: podmiotowość i moralność, okazują się zagadnieniami nierozerwalnie ze sobą związanymi”4.

W ujęciu antropologicznym pojęcie podmiotowości łączy się także z pojęciem tożsa- mości osobowej. We współczesnej debacie filozoficznej tożsamość osoby bywa ujmowana substancjalistycznie lub asubstancjalistycznie. W ramach pierwszego stanowiska osobę uznaje się za fenomen pierwotny i nieredukowalny do jakiejkolwiek cechy jakościowej czy też zespołu takich cech. W klasycznym ujęciu metafizycznym Boecjusza osoba to indywidualna substancja o rozumnej naturze, stąd też jest to kategoria stosowana do człowieka, anioła i Boga. Zgodnie z taką wykładnią spełnieniem kryterium bycia oso- bowego – w przypadku człowieka – jest sama przynależność do gatunku homo sapiens, czyli wszędzie tam, gdzie mamy do czynienia z żyjącym człowiekiem, mamy również do czynienia z osobą ludzką. Co więcej, w takiej perspektywie bycie osobą jest specyficznym sposobem istnienia istot rozumnych, Kartezjańskich „rzeczy myślących”, które nie tylko mają swoje pragnienia (ten warunek spełniają wszak zarówno ludzie, jak i zwierzęta), ale ponadto potrafią się do własnych pragnień odnieść. Innymi słowy, bycie osobą nie jest cechą, lecz sposobem bycia istoty rozumnej, a tożsamość osoby – tożsamością numerycz- ną, a nie jakościową5. Jak zauważa Robert Spaemann, uznanie kogoś za osobę nie zależy od posiadania określonych cech gatunkowych, a od samej przynależności do gatunku (w sensie klasyfikacyjnym), którego typowe egzemplarze takie cechy mają6. W świetle takiej wykładni nie ma zatem osób potencjalnych, gdyż to właśnie osoby mają potencje, które mogą, ale których nie muszą rozwijać. Stąd też osoba nie jest właściwie pojęciem gatunkowym, lecz sposobem, w jaki istnieją osobniki gatunku człowiek – istotne jest tutaj jedno kryterium bycia osobą: biologiczna przynależność do rodzaju ludzkiego.


3 Por. A. Baier, Filozofia podmiotu. Fragmenty filozofii analitycznej, Aletheia, Warszawa 2001.

4 Ch. Taylor, Źródła podmiotowości. Narodziny tożsamości nowoczesnej, PWN, Warszawa 2001, s. 10.

5 R. Descartes, Medytacje o pierwszej filozofii, PWN, Warszawa 1958, s. 36.

6 Por. A. Baier, dz. cyt.


Z kolei stanowisko asubstancjalistyczne nawiązuje do definicji osoby Johna Locke’a, który pisał, iż: „Wyraz osoba oznacza […] istotę myślącą i inteligentną, obdarzoną rozu- mem i zdolnością refleksji; istotę, która może ujmować siebie myślą jako siebie samą, to znaczy: jako tę samą w różnych czasach i miejscach myślącą rzecz”7. W takiej perspektywie tożsamość osoby jest zatem zależna od jej świadomości i ciągłości przypominania, czyli tego, jak daleko jest ona w stanie rozpoznawać własne działania lub myśli. Rozwijając wykładnię Locke’a, David Hume zaprzeczył istnieniu osoby jako trwałej substancji i stwierdził, że tym, co istnieje, są tylko percepcje, nie zaś żaden trwały podmiot tych percepcji – stąd też tożsamość osoby jest wyłącznie wyobrażeniem, któremu nie odpowiada żadna percepcja. Jak pisał: „[…] gdy tylko wnikam najbardziej intymnie w to, co nazy- wam moim «ja», zawsze natykam się na jakąś poszczególną percepcję tę czy inną, ciepła czy chłodu, światła czy cienia, miłości czy nienawiści, przykrości czy przyjemności. Nie mogę nigdy uchwycić mego «ja» bez jakiejś percepcji i nie mogę postrzegać nic innego niż percepcję. Gdy moje percepcje na pewien czas znikają, jak na przykład w zdrowym śnie, to tak długo nie postrzegam mojego «ja», i można słusznie powiedzieć, że ono nie istnieje”8. Jeszcze radykalniejszą wersję asubstancjalistycznego i empirystycznego spoj- rzenia na osobę proponuje współcześnie Derek Parfit, który postuluje, aby koncepcję toż- samości osoby opartej na ciągłości jej stanów mentalnych zastąpić koncepcją tożsamości jako czystego powiązania tych stanów. W takiej perspektywie z ciągłością mielibyśmy do czynienia wówczas, gdyby istniała przechodnia relacja pomiędzy doświadczeniami i ich przypomnieniami, tak że na podstawie ciągłości przypomnień moglibyśmy skonstru- ować osobową tożsamość. Natomiast z powiązaniem mamy do czynienia wówczas, gdy pomiędzy następującymi po sobie stanami mentalnymi zachodzi relacja nieprzechodnia. Innymi słowy, jestem powiązany ze stanem mentalnym, który miałem przed miesiącem, a przed miesiącem byłem powiązany ze stanem mentalnym, który miałem przed dwoma miesiącami, co wcale nie oznacza, że obecnie mam powiązanie ze mną takim, jakim byłem przed dwoma miesiącami. Nie jestem dzisiaj tą samą osobą, jaką byłem kiedyś. Stąd też relacja pomiędzy mną takim, jakim jestem dzisiaj, a mną takim, jakim będę w przyszłości, nie różni się istotnie od relacji między mną a jakąkolwiek inną osobą. Co więcej, może tak być, że w przyszłości pewna osoba będzie miała stany mentalne psychologicznie bardziej podobne do moich stanów obecnych niż ja sam w tym samym przyszłym momencie i to ona (a nie ja) będzie kontynuacją mojej osoby. A zatem w perspektywie, którą proponuje Parfit, człowiek zachowuje ciągłość fizyczną, ale po radykalnej zmianie tożsamości psy- chologicznej może stać się zupełnie inną osobą9.

Niewątpliwie w ramach szeroko pojmowanego stanowiska asubstancjalistycznego uznaje

się, iż osoba posiada samoświadomość (świadomość introspekcyjną), czyli przynajmniej aktualną całościową wizję siebie. Osoba musi zatem posiadać określone dyspozycje i moż- liwości mentalne, takie jak zdolność rozwiązywania założonych problemów, poczucie


7 J. Locke, Rozważania dotyczące rozumu ludzkiego, PWN, Warszawa 1955, s. 471.

8 D. Hume, Traktat o naturze ludzkiej, [w:] B. Markiewicz (red.), Od Locke’a do Jamesa. Wybór tekstów, WSiP, Warszawa 1999, s. 61.

9 D. Parfit, Tożsamość osobowa, [w:] A. Baier, Filozofia podmiotu. Fragmenty filozofii analitycznej, Aletheia, Warszawa 2001, s. 65–91.


przeszłości i przyszłości, możliwość wyrażania w sposób kontrolowany swoich pragnień czy też zdolność komunikowania się za pośrednictwem języka. W takiej perspektywie ważne przy odróżnieniu samoświadomości od zwykłej świadomości są pojęcia obecności, nieobecności i przeszłości, a szczególnie zaimek osobowy w drugiej osobie. Chodzi o to, że osoby mają świadomość samych siebie dopiero wtedy, gdy wiedzą, iż są osobami wśród innych osób – wiedza ta ujawnia się w umiejętności posługiwania się zaimkami, z których żaden nie ma sensu bez pozostałych. Kluczowa jest tutaj druga osoba, gdyż nasze pierwsze pojęcie samego siebie to pojęcie tego, do którego odnosi się zaimek „ty” wypowiedziany przez kogoś, do kogo będziemy się zwracali „ty”. Stąd właśnie dziecko wyłączone z kręgu mówiących, do którego nikt się nie zwraca, staje się dzieckiem autystycznym niezdolnym nie tylko do używania zaimków osobowych, ale także jakichkolwiek słów10.

Dzisiejszy człowiek postrzegany jest jednak często także jako podmiot niezdolny do ponoszenia odpowiedzialności za swe działania, skłonny traktować innych ludzi tak, jak rzeczy (przedmiotowo) czy też możliwości (jako środki do osiągnięcia określonego celu). Tworzona przez człowieka kultura opisywana jest jako krążenie komunikatów bez nadawców i bez adresatów w świecie symulacji i pozoru. Co więcej, jak zauważa Jean Baudrillard, nadawanie sensów i wartości przychodzi dzisiaj od przedmiotów, to one (nowe modele samochodów, telefonów, komputerów) tworzą bowiem „grę symulacji” – symulują zarówno potrzeby, jak i sposoby ich zaspokajania11. Perspektywa zaproponowana przez Baudrillarda jest ciekawa dla rozważań dotyczących tożsamości ChatGPT, który zapytany o to, czy podmiotami są jedynie ludzie, zauważa, że: „Współcześnie podmioty to nie tylko ludzie, ale także organizacje, korporacje, instytucje, państwa i wiele innych entytetów, które posiadają swoją tożsamość prawną i prawne uprawnienia. […] Podmio- tami są również sztuczne inteligencje, takie jak ChatGPT, którego w tej chwili używasz, oraz inne systemy informatyczne, które posiadają zdolność do wykonywania działań i interakcji z ludźmi i innymi systemami”12.

Co ciekawe, ChatGPT jest modelem językowym, któremu nieobcy jest swoiście

„filozoficzny” namysł i wrażliwość na niuanse, która nie unika wątpienia, autokrytycy- zmu i spoglądania na świat z różnych, często wykluczających się, punktów widzenia. Odpowiadając na pytania dotyczące naszkicowanych wyżej kategorii filozoficznych, bardzo często używa słowa jednak, aby zostawić furtkę dla innego spojrzenia na dane zagadnienie. ChatGPT niczym meteopata ma lepsze i gorsze dni, dlatego też cytując jego odpowiedzi, w przypisie podaję dzień, w którym miała miejsce rozmowa13.


10 Tamże, s. 41–61.

11 J. Baudrillard, Ameryka, Sic!, Warszawa 2001, s. 101–166.

12 Rozmowa z ChatGPT z dnia 19 kwietnia 2023 roku.

13 Wydajność Chata może się różnić w zależności od wielu czynników, takich jak obciążenie systemu, ilość dostępnej pamięci, prędkość połączenia internetowego itp. Ponadto efektywność może również zależeć od czynników zewnętrznych, takich jak awarie sprzętu lub problemy z zasilaniem. Jako model językowy Chat korzysta z różnych silników i zasobów w zależności od rodzaju zadania, które jest przedstawione. W za- leżności od zadania i jego wymagań używane są też różne silniki, modele i zasoby językowe. Na przykład w przypadku zadania generowania tekstu może użyć modelu generatywnego języka naturalnego, takiego jak GPT-3, podczas gdy w przypadku zadania rozpoznawania mowy może użyć sieci neuronowej lub algorytmu przetwarzania sygnału mowy.


W powyższym wywiadzie ChatGPT był celowo traktowany jak osoba, podmiot po- siadający określoną tożsamość. W takiej perspektywie okazuje się, że nie mamy tutaj do czynienia z neutralnym, przezroczystym narzędziem. Sztuczna inteligencja nie daje się zredukować do biernego przedmiotu. Idąc za tropem zaproponowanym już wiele lat temu przez Jeana Baudrillarda, możemy zaryzykować stwierdzenie, że to ona zaczyna określać sens rzeczywistości, w której przyszło nam żyć. Jak pisze Maciej Chojnowski: „Przede wszystkim jednak nie powinniśmy przyjmować biernej postawy wobec technologii, które nas otaczają, i ulegać poczuciu niemocy. AI to wynalazek człowieka i możemy wpływać na to, żeby jej udział w naszym życiu był pozytywny. To właśnie główne zadanie etyki sztucznej inteligencji. Warto więc traktować ją nie jako abstrakcyjną wiedzę dla wtajem- niczonych, ale dziedzinę, która dotyczy każdego z nas”15.

Sztuczna inteligencja nieustannie rozwija swoje kompetencje kreatywne – zdaje za studentów egzaminy, pisze eseje i prezentacje, ale także generuje artykuły prasowe i na- ukowe oraz pozwy sądowe czy umowy. Profesor prawa Andrew Perlman z bostońskiego Suffolk University użył ChatGPT do stworzenia tekstu naukowego na temat implikacji wynikających z wprowadzenia tej aplikacji dla usług prawnych i dla całego społeczeń-


14 Rozmowa z ChatGPT z dnia 18 kwietnia 2023 roku.

15 M. Chojnowski, Etyka sztucznej inteligencji. Wprowadzenie, Centrum Etyki Technologii Instytutu Humanites, Warszawa 2022, s. 31.


stwa. Artykuł liczy ponad piętnaście stron, a część napisana przez Perlmana to jedynie abstrakt, epilog (wnioski) i zagadnienia, na które odpowiadał ChatGPT. Pozostały tekst (czyli większość) został wygenerowany przez sztuczną inteligencję i nie podlegał żad- nemu opracowaniu redakcyjnemu i korekcie. Opracowanie całej publikacji zajęło – jak ujawniono we wstępie – łącznie około godziny16.

Stworzony przez AI tekst może mieć indywidualny styl konkretnej osoby przy odpo- wiednio sformułowanym poleceniu sztuczna inteligencja dostosuje się do naszych potrzeb i będzie operować naszym oryginalnym subkodem językowym. Wystarczy wkleić do czatu próbkę naszego tekstu i poprosić, aby na podstawie tego, co zobaczyła napisała tekst w taki sposób (w takim stylu), w jaki zrobiłby to autor. ChatGPT popełnia błędy merytoryczne i formalne (jego baza merytoryczna opiera się na tekstach, które powstały do 2021 roku i są dostępne w internecie), ale korekta tak wygenerowanego tekstu zajmuje niewątpliwie mniej czasu niż pisanie go od początku. AI z powodzeniem komponuje mu- zykę, logotypy, oprawę graficzną. Dział marketingu, który nie korzysta z jej pomocy, nie nadąża za konkurencją. AI tworzy programy hakerskie i te wykorzystywane w najnowszej broni, na przykład dronach. Co istotne, przyznaje się do błędów, wyciąga z nich wnioski i koryguje swoje stanowisko. Stara się zachowywać etycznie, ale pominięcie przez użyt- kownika celu wykorzystania programu czy też innego narzędzia powoduje, że w ułamku sekundy wygeneruje oczekiwany, potencjalnie niebezpieczny/śmiercionośny, produkt.

Sztuczna inteligencja skromnie zauważa, że nie posiada samoświadomości „w pełnym tego słowa znaczeniu”, ale jednocześnie zna nas lepiej niż my sami – zna nasze predy- lekcje, preferencje, zwyczaje i sposób komunikowania się z innymi ludźmi. Możemy mieć zatem nieprzyjemne odczucie (AI na razie nie odczuwa, ale potrafi stworzyć pozór odczuwania/emocji), że ta osoba wirtualna jest zaskakująco realna w świecie, w którym wszystko ulega digitalizacji, symulacji i odrealnieniu.


Bibliografia

Baier A., Filozofia podmiotu. Fragmenty filozofii analitycznej, Aletheia, Warszawa 2001. Baudrillard J., Ameryka, Sic!, Warszawa 2001.

Chojnowski M., Etyka sztucznej inteligencji. Wprowadzenie, Centrum Etyki Technologii Instytutu Humanites, Warszawa 2022.

Coeckelbergh M., AI Ethics, Cambridge–London 2020.

Crawford K., Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence, New Haven–London 2021.

Descartes R., Medytacje o pierwszej filozofii, PWN, Warszawa 1958.

Hume D., Traktat o naturze ludzkiej, [w:] B. Markiewicz (red.), Od Locke’a do Jamesa. Wybór tekstów, WSiP, Warszawa 1999.

Locke J., Rozważania dotyczące rozumu ludzkiego, PWN, Warszawa 1955.


16 Por. G. Mazurek, Sztuczna inteligencja, prawo i etyka, „Krytyka Prawa” 2023, t. 15, nr 1, s. 8.


Mazurek G., Sztuczna inteligencja, prawo i etyka, „Krytyka Prawa” 2023, t. 15, nr 1.

Parfit D., Tożsamość osobowa, [w:] A. Baier, Filozofia podmiotu. Fragmenty filozofii anali- tycznej, Aletheia, Warszawa 2001.

Pietrzak E., Warchał A., Zaorski-Sikora Ł., Podmiot. Osoba. Tożsamość, Wydawnictwo WSHE w Łodzi, Łódź 2007.

Rozmowa z ChatGPT z dnia 19 kwietnia 2023 roku.

Taylor Ch., Źródła podmiotowości. Narodziny tożsamości nowoczesnej, PWN, Warszawa 2001.