polish internet magazine in australia

Sponsors

NEWS: POLSKA: Trybunał Konstytucyjny poinformował w poniedziałek, że Julia Przyłębska nie jest już prezesem, lecz sędzią kierującą pracami Trybunału. W grudniu kończą się kadencje trzech z 15 sędziów zasiadających w TK: 9 grudnia – Julii Przyłębskiej, a 3 grudnia – Mariuszowi Muszyńskiemu i Piotrowi Pszczółkowskiemu. Julia Przyłębska jest sędzią Trybunału Konstytucyjnego od 2015 r. W grudniu 2016 r. została p.o. prezesa, a 21 grudnia 2016 r. – prezesem Trybunału. * * * AUSTRALIA: Nastolatki poniżej 16 roku życia wkrótce zostaną objęte zakazem korzystania z aplikacji społecznościowych, takich jak TikTok, Instagram, Reddit, Snapchat i Facebook. Pierwsze na świecie ustawy przeszły przez parlament australijski w piątek rano. Premier Anthony Albanese powiedział, że zakaz, który wejdzie w życie za rok, pomoże zachęcić młodych Australijczyków do pielęgnowania lepszych relacji z innymi. * * * SWIAT: We wtorek późnym wieczorem czasu koreańskiego prezydent Jun Suk Jeol ogłosił wprowadzenie stanu wojennego a następnego dnia odwołał to, po tym jak Zgromadzenie Narodowe sprzeciwiło się jego decyzji. Yoon Seok-yeol wyjaśnił wprowadzenie stanu wojennego, mówiąc, że od jego inauguracji w 2022 r. złożono 22 wnioski o impeachment przeciwko urzędnikom państwowym. * Nocą na Bałtyku przerwany został kabel telekomunikacyjny między Szwecją a Finlandią. W połowie listopada uszkodzeniu uległy kable telekomunikacyjne łączące Litwę ze Szwecją oraz Finlandię z Niemcami. Niemiecki minister obrony Boris Pistorius uznał przecięcie kabli za sabotaż.
POLONIA INFO: Spotkanie poetycko-muzyczne z Ludwiką Amber: Kołysanka dla Jezusa - Sala JP2 w Marayong, 1.12, godz. 12:30

niedziela, 25 czerwca 2023

Czym jest sztuczna inteligencja? Rozmowa z prof. Marią Czerepaniak

Prof. Maria Czerepaniak-Walczak
 (fot. Leszek Wątróbski)
Rozmowa Leszka Wątróbskiego z prof. zw. dr. hab. Marią Czerepaniak-Walczak, członkinią Komitetu Nauk Pedagogicznych PAN, honorową członkinią Polskiego Towarzystwa Pedagogicznego, autorką rozpraw z zakresu pedagogiki emancypacyjnej oraz edukacji akademickiej. aktywnie uczestniczącą w kształceniu młodych naukowców.

 

-Czym jest sztuczna inteligencja?

-Samo pojęcie „inteligencja” jest interesujące. Ludzie myślą, że to jest coś naturalnego. Okazuje się, że to słowo zostało sformułowane przez ludzi, przez człowieka. I w pierwotnym znaczeniu oznaczało grupę osób.                           

                                                                                       

Słowo to jest pochodzenia rosyjskiego. W XIX wieku oznaczało grupę osób zarabiających na życie pracą swoich umysłów. Ludzi wykształconych uprawiających wolne zawody prawnicze, nauczycielskie oraz zaangażowanych społecznie i politycznie, kwestionujących istniejący system polityczny i społeczny, wyznaczających standardy wartości kultury wysokiej (literatury, sztuki). Było to więc określenie zarówno grupy społecznej, jak i stanu umysłu zorientowanego na postęp, na zmianę warunków życia. Z tego też źródłosłowu wywodzi się właśnie pojęcie inteligencji, którym się posługujemy w języku potocznym. Jest stosowane w określeniu osoby zdolnej do rozwiązywania nowych problemów poprzez wykorzystanie potencjału własnego umysłu.

-Naszą inteligencję poddawano różnym badaniom, jakim?

-Potencjałem umysłu zdolnego do odkrywania i rozwiązywania nowych problemów, logicznego i twórczego przetwarzania informacji oraz inwencji w nowych sytuacjach zainteresowali się psychologowie i uwierzyli, że można nią zmierzyć zdolności człowieka. Stąd też wzięły się testy na inteligencję i jej miara – iloraz inteligencji - IQ. Konsekwencje takiego podejścia do badań były daleko idące. Zarówno dla poszczególnych osób, jak i dla całych grup. I tak np. w latach dwudziestych XX wieku - w USA na Ellis Islands, gdzie przyjmowano imigrantów, obok badania czystości skóry czy stanu zdrowia robiono właśnie testy na inteligencję. I jeżeli ktoś nie przeszedł tego testu pomyślnie, to był odsyłany do kraju, z którego przyjechał.

Pewnie pamiętasz film „Forrest Gump”. Gdy okazuje się, że ze względu na niski iloraz inteligencji nie może być przyjęty do szkoły, matka oznajmia, że kilka punktów nie może pozbawiać jej syna takich możliwości, jakie ma każdy inny. W tym samym roku (1994) co film ukazała się książka Herrnsteina i Murraya pt. „The Bell Curve: Intelligence and Class Structure in American Life”.

Wzbudziła ona kontrowersji. Autorzy skupili się na udowodnianiu związków inteligencji z klasą i rasą we współczesnym społeczeństwie. Ale już wcześniej iloraz inteligencji stał się ważnym narzędziem wyznawców i praktyków eugeniki. To wzbudza moje wątpliwości używania określenia osoby jako inteligentnej.

Myślę, że warto też wskazać na stosunek do inteligencji jako grupy społecznej. Z jednej strony z żalem mówimy o stratach wojennych w tej grupie, z drugiej zaś o antyinteligenckich nastrojach w Polsce.

-Wiara w inteligencję może budzić niepokój…

-… a cały czas mamy na myśli zdolność rozwiązywania problemów przez nasz umysł węglowy, bo nasze, ludzkie umysły, to właśnie mózgi węglowe: neurony, synapsy, aksony.  Zdolność do rozwiązywania problemów, za sprawą odkrywczych, twórczych mózgów węglowych, mają także sieci neuronowe skonstruowane z użyciem krzemu. Okazuje się więc, że pojawia się również mózg krzemowy.  Ma on wielki potencjał, bazujący na znacząco innych mechanizmach aniżeli te, które funkcjonują w naszych umysłach – a mianowicie bazuje na algorytmach, rozumianych jako skończony ciąg jasno zdefiniowanych czynności koniecznych do wykonania cyklu zadań.                                                                                                                                                

I nie wiem, dlaczego proces ten nazwano sztuczną inteligencją. Czy dlatego, że została „wyprodukowana” przez człowieka tak jak proteza, a nie przez naturę? Można byłoby równie dobrze przyjąć, że jest to potencjał mózgu krzemowego i wymyśleć inną nazwę. Jest to bowiem wytwór - w pierwszej kolejności mózgu węglowego, czyli inteligencji człowieka. Może nie wystarczyło ludziom wyobraźni, nie byli/nie są w stanie pomyśleć, wymyśleć innej nazwy. Ale zostawmy sprawę nazwy. Skupmy się na istocie tego wynalazku. Człowiek skonstruował algorytmy, które mogą się okazać bardzo pomocne, ale mogą też stanowić zagrożenie, zresztą jak każdy inny wynalazek. Trzeba bowiem pamiętać, że każdy wynalazek ma zawsze dwa oblicza - jak medal dwie strony: pozytywną i negatywną – czyli plusy i minusy. Może służyć człowiekowi do robienia rzeczy dobrych, pozytywnych, służących osobie i społeczeństwu, ale może być też wykorzystany do czynienia zła, szkód, a nawet unicestwienia ludzkości.

-Porozmawiajmy więc najpierw o plusach…

-Sztuczna inteligencja, pozostańmy przy tej nazwie, wzbudza powszechne zainteresowanie i wiele nadziei. Okazuje się, że może być wykorzystana do wytwarzania pewnych dóbr kultury. Może być wykorzystana w malarstwie, muzyce, literaturze czy poezji, ale przede wszystkim w trosce o zdrowie człowieka. Okazuje się bowiem, że algorytmy znakomicie radzą sobie w diagnozowaniu wielu stanów lub sytuacji – np. w projektowaniu potencjalnych skutków działalności człowieka. Można więc je zastosować tam, gdzie zaczyna brakować nam wyobraźni, gdzie jej nam już nie starcza. I wtedy są one w stanie otworzyć nowe pola refleksji. Dzięki temu możemy dostrzec zdecydowanie więcej. Można to np. porównać do fotografii, gdzie im więcej pikseli, tym bardziej czytelny obraz. I bywa tak, że kiedy nie zwracamy uwagi na co patrzymy czy sobie wyobrażamy, to prezentacja tego na ekranie komputera jest bardziej widoczna i czytelna.                                                                                

Myślę, że ostatnio nie tyle sztuczna inteligencja jest przedmiotem teraz wielu nadziei i niepokojów, co jeden z jej wytworów – a mianowicie taki wdzierający się do życia codziennego ludzi, a zwłaszcza do edukacji – chatbot GTP, z którym można sobie porozmawiać, korespondować i który może być pomocny w wykonywaniu wielu zadań.                                                                                                                             

-Wszyscy bardzo lubimy personalizować różne rzeczy…

-... i nie tylko posługiwać się słowami, ale także personalizować, uczłowieczać. Jak z kimś  nieznajomym rozmawiamy przez telefon albo komunikujemy się pisemnie, to próbujemy sobie wyobrazić jak ten nasz rozmówca wygląda. To mogłoby być interesujące porozmawiać z osobami korzystającymi z chatbota i dowiedzieć się, jak sobie wyobrażają właściciela tego głosu po drugiej stronie - czy właściciela/autora teksu, który jest odpowiedzią na nasze pytania. Jakie odzwierciedlanie w umyśle tego człowieka przybiera ta postać?                                                                                                               

Spróbujmy wyobrazić sobie, jak wygląda ten nasz rozmówca czy rozmówczyni. Myślę, że warto byłoby przeprowadzić taki test w różnych grupach wiekowych i sprawdzić kim jest właściciel tego głosu/tekstu. Zakładam trochę hipotetycznie, że dla wielu osób to jest taki ludzik automat z klocków lego. Kiedy sama korzystałam z odpowiedzi chatbota próbowałam sobie wyobrazić, że ta osoba po drugiej stronie jest zdecydowanie młodsza ode mnie, płci żeńskiej i to ja z nią prowadzę wywiad. Ja stawiam pytanie, a ona mi odpowiada. Być może moje myślenie skażone jest moim doświadczeniem egzystencjalnym. Gdy czytałam powieści fantastyczne wyobrażałam sobie postaci i obiekty w nich występujące. Tym razem uległam jednak pokusie i zapytałam: jak wyglądasz mój rozmówco, moja rozmówczyni. I oto odpowiedź: „jako sztuczna inteligencja, nie posiadam fizycznego ciała, więc nie mogę wyglądać. Jestem jedynie programem komputerowym, który odpowiada na Twoje pytania i udziela odpowiedzi.  Jestem jedynie zbiorem algorytmów i danych, które pozwalają mi na przetwarzanie i generowanie odpowiedzi na podstawie wprowadzonego tekstu. Moją rolą jest pomaganie Ci (podkreślenie M. Cz-W) w odpowiedzi w języku naturalnym na twoje pytania i rozmawianie z Tobą w sposób, który mam nadzieję będzie dla Ciebie pomocny”. Przejrzysta, wyczerpująca odpowiedź, nieprawdaż?  Ale i tak próbuję wyobrazić sobie, a może raczej stworzyć w umyśle, a następnie graficzną, materialną reprezentację tego pomocnika/tej pomocnicy.

-Ja też zapytałem o sztuczną inteligencję chatbota. Oto co mi odpowiedział:

Jako sztuczna inteligencja, nie mam własnych przekonań ani uczuć, ale mogę powiedzieć, że sztuczna inteligencja (SI) jest dziedziną informatyki, która zajmuje się tworzeniem programów i systemów, które potrafią wykonywać zadania, które normalnie wymagałyby ludzkiej inteligencji. Sztuczna inteligencja stosowana jest w różnych dziedzinach – takich jak: medycyna, przemysł, nauka, finanse i wiele innych. Może pomóc w automatyzacji procesów, przewidywaniu trendów, analizie danych, a nawet w tworzeniu innowacyjnych rozwiązań. Jednakże, jak każda nowa technologia, sztuczna inteligencja stawia także przed nami wyzwania i zagrożenia. Należy zadbać o to, aby była ona odpowiednio zaprojektowana i kontrolowana, aby zapewnić bezpieczeństwo i ochronę prywatności użytkowników.

-A jak zdaniem Pani Profesor wygląda sprawa etyczności w edukacji, jeżeli rozmawiamy o umyśle krzemowym?

- Myślę, że sprawa etyczności związanej z uczeniem się zasługuje m.in. na odpowiedź: czego się tak naprawdę uczymy korzystając z potencjału, z zasobów chatbota. Uczymy się jak sformułować pytanie, ale i jak je postawić. Kiedy zaś dostaję odpowiedź, to pojawia się kwestia zaufania, czy jest to odpowiedź poprawna, wystarczająca. A następnie – co mogę zrobić z tą odpowiedzią, czy i jak się nią posłużyć, jak i do czego wykorzystać.  Oczywiście, najprościej jest przyjąć tę odpowiedź za pewną i użyć jako własny pomysł, własne odkrycie i następnie:  zaznacz, kopiuj, wklej i przedstaw jako wykonanie zadania. Nie muszę przy tym obciążać swojej pamięci. Więc mój mózg węglowy wykonuje zupełnie inne operacje, aniżeli wtedy, kiedy muszę wyszukać jakieś źródła, kiedy muszę dodatkowo wypytać osobę, kiedy muszę się przejść po parku i wyszukać określone rośliny, aby móc je opisać. I tu się właśnie rodzą te zagrożenia edukacyjne. Grozi nam, że nie będziemy umieli uczyć się – czyli wyszukiwać związków przyczynowo-skutkowych w zjawiskach, które nas otaczają. Korzystanie z chatbota pozbawione krytycznej refleksji i wrażliwości etycznej uwalnia nas od wielu ważnych działań, niezbędnych dla procesów poznawania. Naraża też na pokusy zachowań nieetycznych, w tym oszustwa, co może wywoływać zakłócenie relacji międzyludzkich, tak ważnych w procesie edukacji.

W celu osobistego doświadczenia interakcji w chatbotem posłużyłam się tym narzędziem w wypełnianiu pewnego zadania. Otóż kolega poprosił mnie o tekst do jego jubileuszowej książki. Zastrzegł, że nie oczekuje rozprawy naukowej. Uznałam więc, że mogę posłużyć się żartem. A ponieważ wiem, czym się zajmuje naukowo, wpadłam na pomysł skorzystania z pomocy sztucznej inteligencji. Wiem też, że jest absolwentem politechniki i cyfrowo zorientowany,  zrozumie więc mój żart. Chatbotowi postawiłam więc pytanie i natychmiast dostałam odpowiedź.                 

Ponieważ kolega zajmuje się kompetencjami przyszłości i od lat pracuje nad kategoriami kwalifikacji kompetencji, to zwróciłam się do inteligentnej skrzynki w tej właśnie sprawie. Jak mówiliśmy wcześniej, mamy tendencję do antropomorfizowania rzeczy. Tak też zrobiłam. Mojej rozmówczyni, jak sama o sobie napisała, jest programem komputerowym, nadałam imię i nazwisko - Afiria Encegilli-Tencial. Jest to akronim Artificial Intelligence Mogłam wtedy, zamiast zwracać się do skrzynki, kierować pytania do wyimaginowanej osoby. Zadawałam jej więc kolejne pytania i dostawałam odpowiedzi. I pisząc tekst do księgi jubileuszowej działałam metodą: zaznacz, kopiuj, wklej. I w taki właśnie sposób „wyprodukowałam” przy jej pomocy okolicznościowy tekst, dopisując do niego jeszcze moje pytania i komentarze. Potraktowałam to jak wywiad mówiąc: to ja stawiałam pytania, a moja rozmówczyni mi odpowiadała. Uznaliśmy z kolegą ten żart za udany. Zachowane zostały zasady poszanowania prawa autorskiego, gdyż wyraźnie zaznaczałam, które fragmenty tekstu są autorstwa Afirii Encegilli-Tencial.                                                                                                                                                         

 -Czy w podobny sposób można też napisać powieść historyczną...?                                                             

-… w której są pewne fakty, ale i fikcja literacka. W związku z tym można spokojnie „napisać” powieść przy pomocy chatbota. Można ją nawet opublikować. Ale tu zaczynają się pojawiać pewne schody – mianowicie prawa autorskie. Przede wszystkim teksty z  chatbota nie są demaskowane przez programy antyplagiatowe. I to jest źródło nieuczciwości. Niedawno czytałam, że chatbot napisał maturalne wypracowanie z języka polskiego w ramach zadań z matury z ubiegłego roku. Pracę tę oceniała nauczycielka, która nie wniosła żadnych zastrzeżeń i uznała, że cała praca została napisana poprawnie. No i co teraz dalej robić?                                                                                                                    

Jako pedagożka mam wielki niepokój - czy zamknąć szkołę, czy zamknąć uniwersyteckie drzwi i okna, aby ten mózg krzemowy nie wdarł się w interakcję edukacyjną. A może wprost przeciwnie mówić o tym i pokazywać jak obchodzić się z tym potencjałem? Włosi np. zabronili korzystania z chatbota. Innego zdania są uniwersytety brytyjskie, gdzie np. Uniwersytet w Cambridge otworzył się na niego. W moim przekonaniu nie możemy się zamknąć czy odizolować. Jest to po prostu kolejne narzędzie nadające się do wzbogacenia procesu edukacji, otwierające też nowe konteksty wychowania. Nie tak przecież dawno temu, kiedy wprowadzono długopisy w szkołach, pisanie nimi było zabronione. Używano przecież ołówków i piór ze stalówkami na atrament. Uważano powszechnie, że długopis może zmienić charakter (nie tylko pisma). Dziś wszyscy piszą długopisem. Później pojawiły się kalkulatory. I zamiast uczyć się tabliczki mnożenia na pamięć, zaczęto je używać. Historia z kalkulatorami się powtórzyła. W przyszłości nie unikniemy tego, żeby w interakcje edukacyjne – w te procesy uczenia się nie wdarło się coś nowego. Nie możemy być takimi luddystami protestującymi przeciwko zmianom ulepszającymi sposób życia, jak ci angielscy XIX wieczni robotnicy niszczący maszyny, które miały zastąpić ich pracę i doprowadzić do bezrobocia. Takie straszenie sztuczną inteligencją jest obecne w wielu wypowiedziach publicznych. Stawiane są pytania o miejsce i rolę nauczyciela w świecie, w którym „rozpycha się” sztuczna inteligencja. Jestem pewna, że nie jest to wytwór, który zastąpi nauczyciela – istotę biopsychonoetyczną. Z całą też pewnością nie wyręczy człowieka we wszystkim, ale może być ułatwieniem w wykonywaniu wielu prac. Analizowaliśmy to z grupą studentów. I na szczęście, jak studenci powiedzieli, już są na to uwrażliwieni. Uważam, że uczenie się koegzystencji mózgu węglowego z mózgiem krzemowym jest ważnym i interesującym wyzwaniem dla edukacji i naszej całej cywilizacji.

-Warto byłoby jeszcze zająć się sprawą ewentualnych błędów, które mogą znaleźć się w odpowiedziach  chatbota...

- Otóż jedna z moich koleżanek zapytała się chatbota kim ja jestem, a ja z kolei zapytałam: kim jest moja córka. Odpowiedzi na te pytania bardzo mnie rozbawiły. Za każdym razem chatbot odpowiadał, że jesteśmy autorkami i współautorkami „wielu publikacji naukowych, wśród których znajdują się m.in. artykuły. Książki i rozdziały w podręcznikach”. I to była jedyna prawdziwa informacja. Pozostałe były nieprawdziwe. W przypadku mojej córki była informacja o nagrodzie, której ona jeszcze nie dostała. Oznacza to, że nie każdą odpowiedź należy przyjmować bezkrytycznie.

Jeśli mówimy o obecności sztucznej inteligencji, a konkretnie potencjału chatbota w edukacji, warto zdawać sobie sprawę z jawności, szczerości i zaufania w interakcjach społecznych. Sama świadomość wśród uczących się, że nauczyciele wiedzą, jak to działa, ogranicza uleganie pokusie wyręczania się chatbotem w wypełnianiu zadań, w pisaniu prac. A że ułatwia wyszukiwanie informacji, to naprawdę duża pomoc w wielu sytuacjach. Na przykład kiedy stawiam pytanie po angielsku i dostaję odpowiedzi po angielsku, w świetle mojej wiedzy jest to poprawna angielszczyzna z zachowaniem zasad gramatyki i ortografii. Nie muszę już korzystać z pomocy translatorów. Minusem natomiast przy korzystaniu z chatbota jest zagrożenie zwolnienia naszego mózgu węglowego z wykonania wielu dodatkowych operacji tak ważnych dla umysłu i ciała. Pojawia się więc nowy mind-body problem.

Jak widać, inteligencja, zarówno jako kondycja umysłu jak i jako grupa społeczna ma wciąż wiele do robienia. Wciąż ważne jest kształtowanie i doskonalenie kompetencji, nie wiem dlaczego powszechnie nazywanych kompetencjami przyszłości, takich jak: krytyczne myślenie, umiejętność współpracy, racjonalna komunikacja, aktualizowanie metod uczenia się oraz generowania pomysłów i rozwiazywania problemów w sposób twórczy. To są sprawności mózgu węglowego konieczne TU i Teraz. One chronią nas przed zniewoleniem i kolonizowaniem naszego świata życia przez „nowych” jego „mieszkańców”. Wchodźmy z nimi w interakcje, ale strzeżmy granice naszej wolności.

-Korzystajmy więc z pomocy sztucznej inteligencji z umiarem i rozwagą. Dziękuję również za rozmowę.

Rozmawiał Leszek Wątróbski

Brak komentarzy:

Prześlij komentarz

Redakcja nie ponosi odpowiedzialności za treść komentarzy