Prof. Maria
Czerepaniak-Walczak (fot. Leszek Wątróbski) |
-Czym jest sztuczna inteligencja?
-Samo pojęcie „inteligencja” jest interesujące. Ludzie myślą, że to jest coś naturalnego. Okazuje się, że to słowo zostało sformułowane przez ludzi, przez człowieka. I w pierwotnym znaczeniu oznaczało grupę osób.
Słowo to jest pochodzenia rosyjskiego. W XIX wieku oznaczało grupę osób
zarabiających na życie pracą swoich umysłów. Ludzi wykształconych uprawiających
wolne zawody prawnicze, nauczycielskie oraz zaangażowanych społecznie i
politycznie, kwestionujących istniejący system polityczny i społeczny,
wyznaczających standardy wartości kultury wysokiej (literatury, sztuki). Było
to więc określenie zarówno grupy społecznej, jak i stanu umysłu zorientowanego
na postęp, na zmianę warunków życia. Z tego też źródłosłowu wywodzi się właśnie
pojęcie inteligencji, którym się posługujemy w języku potocznym. Jest stosowane
w określeniu osoby zdolnej do rozwiązywania nowych problemów poprzez
wykorzystanie potencjału własnego umysłu.
-Naszą inteligencję poddawano
różnym badaniom, jakim?
-Potencjałem umysłu zdolnego do
odkrywania i rozwiązywania nowych problemów, logicznego i twórczego
przetwarzania informacji oraz inwencji w nowych sytuacjach zainteresowali się
psychologowie i uwierzyli, że można nią zmierzyć zdolności człowieka. Stąd też
wzięły się testy na inteligencję i jej miara – iloraz inteligencji - IQ.
Konsekwencje takiego podejścia do badań były daleko idące. Zarówno dla
poszczególnych osób, jak i dla całych grup. I tak np. w latach dwudziestych XX
wieku - w USA na Ellis Islands, gdzie przyjmowano imigrantów, obok badania
czystości skóry czy stanu zdrowia robiono właśnie testy na inteligencję. I jeżeli
ktoś nie przeszedł tego testu pomyślnie, to był odsyłany do kraju, z którego
przyjechał.
Pewnie pamiętasz film „Forrest
Gump”. Gdy okazuje się, że ze względu na niski iloraz inteligencji nie może być
przyjęty do szkoły, matka oznajmia, że kilka punktów nie może pozbawiać jej
syna takich możliwości, jakie ma każdy inny. W tym samym roku (1994) co film
ukazała się książka Herrnsteina i Murraya pt. „The
Bell Curve: Intelligence and Class Structure in American Life”.
Wzbudziła ona kontrowersji. Autorzy
skupili się na udowodnianiu związków inteligencji z klasą i rasą we
współczesnym społeczeństwie. Ale już wcześniej iloraz inteligencji stał się
ważnym narzędziem wyznawców i praktyków eugeniki. To wzbudza moje wątpliwości
używania określenia osoby jako inteligentnej.
Myślę, że warto też wskazać na
stosunek do inteligencji jako grupy społecznej. Z jednej strony z żalem mówimy
o stratach wojennych w tej grupie, z drugiej zaś o antyinteligenckich
nastrojach w Polsce.
-Wiara
w inteligencję może budzić niepokój…
-… a cały czas mamy na myśli zdolność rozwiązywania problemów przez nasz umysł węglowy, bo nasze, ludzkie umysły, to właśnie mózgi węglowe: neurony, synapsy, aksony. Zdolność do rozwiązywania problemów, za sprawą odkrywczych, twórczych mózgów węglowych, mają także sieci neuronowe skonstruowane z użyciem krzemu. Okazuje się więc, że pojawia się również mózg krzemowy. Ma on wielki potencjał, bazujący na znacząco innych mechanizmach aniżeli te, które funkcjonują w naszych umysłach – a mianowicie bazuje na algorytmach, rozumianych jako skończony ciąg jasno zdefiniowanych czynności koniecznych do wykonania cyklu zadań.
I
nie wiem, dlaczego proces ten nazwano sztuczną inteligencją. Czy dlatego, że
została „wyprodukowana” przez człowieka tak jak proteza, a nie przez naturę?
Można byłoby równie dobrze przyjąć, że jest to potencjał mózgu krzemowego i
wymyśleć inną nazwę. Jest to bowiem wytwór - w pierwszej kolejności mózgu
węglowego, czyli inteligencji człowieka. Może nie wystarczyło ludziom
wyobraźni, nie byli/nie są w stanie pomyśleć, wymyśleć innej nazwy. Ale
zostawmy sprawę nazwy. Skupmy się na istocie tego wynalazku. Człowiek
skonstruował algorytmy, które mogą się okazać bardzo pomocne, ale mogą też
stanowić zagrożenie, zresztą jak każdy inny wynalazek. Trzeba bowiem pamiętać,
że każdy wynalazek ma zawsze dwa oblicza - jak medal dwie strony: pozytywną i
negatywną – czyli plusy i minusy. Może służyć człowiekowi do robienia rzeczy
dobrych, pozytywnych, służących osobie i społeczeństwu, ale może być też
wykorzystany do czynienia zła, szkód, a nawet unicestwienia ludzkości.
-Porozmawiajmy więc najpierw o
plusach…
-Sztuczna inteligencja, pozostańmy przy tej nazwie, wzbudza powszechne zainteresowanie i wiele nadziei. Okazuje się, że może być wykorzystana do wytwarzania pewnych dóbr kultury. Może być wykorzystana w malarstwie, muzyce, literaturze czy poezji, ale przede wszystkim w trosce o zdrowie człowieka. Okazuje się bowiem, że algorytmy znakomicie radzą sobie w diagnozowaniu wielu stanów lub sytuacji – np. w projektowaniu potencjalnych skutków działalności człowieka. Można więc je zastosować tam, gdzie zaczyna brakować nam wyobraźni, gdzie jej nam już nie starcza. I wtedy są one w stanie otworzyć nowe pola refleksji. Dzięki temu możemy dostrzec zdecydowanie więcej. Można to np. porównać do fotografii, gdzie im więcej pikseli, tym bardziej czytelny obraz. I bywa tak, że kiedy nie zwracamy uwagi na co patrzymy czy sobie wyobrażamy, to prezentacja tego na ekranie komputera jest bardziej widoczna i czytelna.
Myślę, że ostatnio nie tyle sztuczna inteligencja jest przedmiotem teraz wielu nadziei i niepokojów, co jeden z jej wytworów – a mianowicie taki wdzierający się do życia codziennego ludzi, a zwłaszcza do edukacji – chatbot GTP, z którym można sobie porozmawiać, korespondować i który może być pomocny w wykonywaniu wielu zadań.
-Wszyscy bardzo lubimy personalizować różne rzeczy…
-... i nie tylko posługiwać się słowami, ale także personalizować, uczłowieczać. Jak z kimś nieznajomym rozmawiamy przez telefon albo komunikujemy się pisemnie, to próbujemy sobie wyobrazić jak ten nasz rozmówca wygląda. To mogłoby być interesujące porozmawiać z osobami korzystającymi z chatbota i dowiedzieć się, jak sobie wyobrażają właściciela tego głosu po drugiej stronie - czy właściciela/autora teksu, który jest odpowiedzią na nasze pytania. Jakie odzwierciedlanie w umyśle tego człowieka przybiera ta postać?
Spróbujmy
wyobrazić sobie, jak wygląda ten nasz rozmówca czy rozmówczyni. Myślę, że warto
byłoby przeprowadzić taki test w różnych grupach wiekowych i sprawdzić kim jest
właściciel tego głosu/tekstu. Zakładam trochę hipotetycznie, że dla wielu osób
to jest taki ludzik automat z klocków lego. Kiedy sama korzystałam z odpowiedzi
chatbota próbowałam sobie wyobrazić, że ta osoba po drugiej stronie jest
zdecydowanie młodsza ode mnie, płci żeńskiej i to ja z nią prowadzę wywiad. Ja
stawiam pytanie, a ona mi odpowiada. Być może moje myślenie skażone jest moim
doświadczeniem egzystencjalnym. Gdy czytałam powieści fantastyczne wyobrażałam
sobie postaci i obiekty w nich występujące. Tym razem uległam jednak pokusie i
zapytałam: jak wyglądasz mój rozmówco, moja rozmówczyni. I oto odpowiedź: „jako
sztuczna inteligencja, nie posiadam fizycznego ciała, więc nie mogę wyglądać.
Jestem jedynie programem komputerowym, który odpowiada na Twoje pytania i
udziela odpowiedzi. Jestem jedynie
zbiorem algorytmów i danych, które pozwalają mi na przetwarzanie i generowanie
odpowiedzi na podstawie wprowadzonego tekstu. Moją rolą jest pomaganie Ci
(podkreślenie M. Cz-W) w odpowiedzi w języku naturalnym na twoje pytania i rozmawianie
z Tobą w sposób, który mam nadzieję będzie dla Ciebie pomocny”. Przejrzysta,
wyczerpująca odpowiedź, nieprawdaż? Ale
i tak próbuję wyobrazić sobie, a może raczej stworzyć w umyśle, a następnie
graficzną, materialną reprezentację tego pomocnika/tej pomocnicy.
-Ja też zapytałem o sztuczną inteligencję chatbota. Oto co mi
odpowiedział:
Jako sztuczna inteligencja, nie mam własnych przekonań ani
uczuć, ale mogę powiedzieć, że sztuczna inteligencja (SI) jest dziedziną
informatyki, która zajmuje się tworzeniem programów i systemów, które potrafią
wykonywać zadania, które normalnie wymagałyby ludzkiej inteligencji. Sztuczna
inteligencja stosowana jest w różnych dziedzinach – takich jak: medycyna,
przemysł, nauka, finanse i wiele innych. Może pomóc w automatyzacji procesów,
przewidywaniu trendów, analizie danych, a nawet w tworzeniu innowacyjnych
rozwiązań. Jednakże, jak każda nowa technologia, sztuczna inteligencja stawia
także przed nami wyzwania i zagrożenia. Należy zadbać o to, aby była ona odpowiednio
zaprojektowana i kontrolowana, aby zapewnić bezpieczeństwo i ochronę
prywatności użytkowników.
-A jak zdaniem Pani Profesor wygląda sprawa etyczności w
edukacji, jeżeli rozmawiamy o umyśle krzemowym?
- Myślę, że sprawa etyczności związanej z uczeniem się zasługuje
m.in. na odpowiedź: czego się tak naprawdę uczymy korzystając z potencjału, z
zasobów chatbota. Uczymy się jak sformułować pytanie, ale i jak je postawić.
Kiedy zaś dostaję odpowiedź, to pojawia się kwestia zaufania, czy jest to
odpowiedź poprawna, wystarczająca. A następnie – co mogę zrobić z tą
odpowiedzią, czy i jak się nią posłużyć, jak i do czego wykorzystać. Oczywiście, najprościej jest przyjąć tę
odpowiedź za pewną i użyć jako własny pomysł, własne odkrycie i następnie: zaznacz, kopiuj, wklej i przedstaw jako
wykonanie zadania. Nie muszę przy tym obciążać swojej pamięci. Więc mój mózg
węglowy wykonuje zupełnie inne operacje, aniżeli wtedy, kiedy muszę wyszukać
jakieś źródła, kiedy muszę dodatkowo wypytać osobę, kiedy muszę się przejść po
parku i wyszukać określone rośliny, aby móc je opisać. I tu się właśnie rodzą
te zagrożenia edukacyjne. Grozi nam, że nie będziemy umieli uczyć się – czyli
wyszukiwać związków przyczynowo-skutkowych w zjawiskach, które nas otaczają.
Korzystanie z chatbota pozbawione krytycznej refleksji i wrażliwości etycznej
uwalnia nas od wielu ważnych działań, niezbędnych dla procesów poznawania.
Naraża też na pokusy zachowań nieetycznych, w tym oszustwa, co może wywoływać
zakłócenie relacji międzyludzkich, tak ważnych w procesie edukacji.
W celu osobistego doświadczenia interakcji w chatbotem posłużyłam się tym narzędziem w wypełnianiu pewnego zadania. Otóż kolega poprosił mnie o tekst do jego jubileuszowej książki. Zastrzegł, że nie oczekuje rozprawy naukowej. Uznałam więc, że mogę posłużyć się żartem. A ponieważ wiem, czym się zajmuje naukowo, wpadłam na pomysł skorzystania z pomocy sztucznej inteligencji. Wiem też, że jest absolwentem politechniki i cyfrowo zorientowany, zrozumie więc mój żart. Chatbotowi postawiłam więc pytanie i natychmiast dostałam odpowiedź.
Ponieważ kolega zajmuje się kompetencjami przyszłości i od lat pracuje nad kategoriami kwalifikacji kompetencji, to zwróciłam się do inteligentnej skrzynki w tej właśnie sprawie. Jak mówiliśmy wcześniej, mamy tendencję do antropomorfizowania rzeczy. Tak też zrobiłam. Mojej rozmówczyni, jak sama o sobie napisała, jest programem komputerowym, nadałam imię i nazwisko - Afiria Encegilli-Tencial. Jest to akronim Artificial Intelligence Mogłam wtedy, zamiast zwracać się do skrzynki, kierować pytania do wyimaginowanej osoby. Zadawałam jej więc kolejne pytania i dostawałam odpowiedzi. I pisząc tekst do księgi jubileuszowej działałam metodą: zaznacz, kopiuj, wklej. I w taki właśnie sposób „wyprodukowałam” przy jej pomocy okolicznościowy tekst, dopisując do niego jeszcze moje pytania i komentarze. Potraktowałam to jak wywiad mówiąc: to ja stawiałam pytania, a moja rozmówczyni mi odpowiadała. Uznaliśmy z kolegą ten żart za udany. Zachowane zostały zasady poszanowania prawa autorskiego, gdyż wyraźnie zaznaczałam, które fragmenty tekstu są autorstwa Afirii Encegilli-Tencial.
-Czy w podobny sposób można też napisać powieść historyczną...?
-… w której są pewne fakty, ale i fikcja literacka. W związku z tym można spokojnie „napisać” powieść przy pomocy chatbota. Można ją nawet opublikować. Ale tu zaczynają się pojawiać pewne schody – mianowicie prawa autorskie. Przede wszystkim teksty z chatbota nie są demaskowane przez programy antyplagiatowe. I to jest źródło nieuczciwości. Niedawno czytałam, że chatbot napisał maturalne wypracowanie z języka polskiego w ramach zadań z matury z ubiegłego roku. Pracę tę oceniała nauczycielka, która nie wniosła żadnych zastrzeżeń i uznała, że cała praca została napisana poprawnie. No i co teraz dalej robić?
Jako
pedagożka mam wielki niepokój - czy zamknąć szkołę, czy zamknąć uniwersyteckie
drzwi i okna, aby ten mózg krzemowy nie wdarł się w interakcję edukacyjną. A
może wprost przeciwnie mówić o tym i pokazywać jak obchodzić się z tym
potencjałem? Włosi np. zabronili korzystania z chatbota. Innego zdania są
uniwersytety brytyjskie, gdzie np. Uniwersytet w Cambridge otworzył się na
niego. W moim przekonaniu nie możemy się zamknąć czy odizolować. Jest to po
prostu kolejne narzędzie nadające się do wzbogacenia procesu edukacji,
otwierające też nowe konteksty wychowania. Nie tak przecież dawno temu, kiedy
wprowadzono długopisy w szkołach, pisanie nimi było zabronione. Używano
przecież ołówków i piór ze stalówkami na atrament. Uważano powszechnie, że
długopis może zmienić charakter (nie tylko pisma). Dziś wszyscy piszą
długopisem. Później pojawiły się kalkulatory. I zamiast uczyć się tabliczki
mnożenia na pamięć, zaczęto je używać. Historia z kalkulatorami się powtórzyła.
W przyszłości nie unikniemy tego, żeby w interakcje edukacyjne – w te procesy
uczenia się nie wdarło się coś nowego. Nie możemy być takimi luddystami protestującymi przeciwko zmianom
ulepszającymi sposób życia, jak ci angielscy XIX wieczni robotnicy niszczący
maszyny, które miały zastąpić ich pracę i doprowadzić do bezrobocia. Takie
straszenie sztuczną inteligencją jest obecne w wielu wypowiedziach publicznych.
Stawiane są pytania o miejsce i rolę nauczyciela w świecie, w którym „rozpycha
się” sztuczna inteligencja. Jestem pewna, że nie jest to wytwór, który zastąpi
nauczyciela – istotę biopsychonoetyczną. Z całą też pewnością nie wyręczy
człowieka we wszystkim, ale może być ułatwieniem w wykonywaniu wielu prac.
Analizowaliśmy to z grupą studentów. I na szczęście, jak studenci powiedzieli,
już są na to uwrażliwieni. Uważam, że uczenie się koegzystencji mózgu węglowego
z mózgiem krzemowym jest ważnym i interesującym wyzwaniem dla edukacji i naszej
całej cywilizacji.
-Warto byłoby jeszcze zająć się sprawą ewentualnych błędów,
które mogą znaleźć się w odpowiedziach chatbota...
- Otóż jedna z moich koleżanek zapytała się chatbota kim ja jestem, a ja z kolei
zapytałam: kim jest moja córka. Odpowiedzi na te pytania bardzo mnie rozbawiły.
Za każdym razem chatbot odpowiadał, że jesteśmy autorkami i współautorkami
„wielu publikacji naukowych, wśród których znajdują się m.in. artykuły. Książki
i rozdziały w podręcznikach”. I to była jedyna prawdziwa informacja. Pozostałe
były nieprawdziwe. W przypadku mojej córki była informacja o nagrodzie, której
ona jeszcze nie dostała. Oznacza to, że nie każdą odpowiedź należy przyjmować
bezkrytycznie.
Jeśli mówimy o obecności sztucznej inteligencji, a konkretnie
potencjału chatbota w edukacji, warto zdawać sobie sprawę z jawności,
szczerości i zaufania w interakcjach społecznych. Sama świadomość wśród
uczących się, że nauczyciele wiedzą, jak to działa, ogranicza uleganie pokusie
wyręczania się chatbotem w wypełnianiu zadań, w pisaniu prac. A że ułatwia
wyszukiwanie informacji, to naprawdę duża pomoc w wielu sytuacjach. Na przykład
kiedy stawiam pytanie po angielsku i dostaję odpowiedzi po angielsku, w świetle
mojej wiedzy jest to poprawna angielszczyzna z zachowaniem zasad gramatyki i
ortografii. Nie muszę już korzystać z pomocy translatorów. Minusem natomiast
przy korzystaniu z chatbota jest zagrożenie zwolnienia naszego mózgu węglowego
z wykonania wielu dodatkowych operacji tak ważnych dla umysłu i ciała. Pojawia
się więc nowy mind-body problem.
Jak widać, inteligencja, zarówno jako kondycja umysłu jak i jako
grupa społeczna ma wciąż wiele do robienia. Wciąż ważne jest kształtowanie i
doskonalenie kompetencji, nie wiem dlaczego powszechnie nazywanych
kompetencjami przyszłości, takich jak: krytyczne myślenie, umiejętność
współpracy, racjonalna komunikacja, aktualizowanie metod uczenia się oraz
generowania pomysłów i rozwiazywania problemów w sposób twórczy. To są
sprawności mózgu węglowego konieczne TU i Teraz. One chronią nas przed
zniewoleniem i kolonizowaniem naszego świata życia przez „nowych” jego
„mieszkańców”. Wchodźmy z nimi w interakcje, ale strzeżmy granice naszej
wolności.
-Korzystajmy więc z pomocy sztucznej inteligencji z umiarem i rozwagą. Dziękuję również za rozmowę.
Rozmawiał Leszek Wątróbski
No comments:
Post a Comment
Redakcja nie ponosi odpowiedzialności za treść komentarzy