AI
Postanowiłem się chwilę pochylić nad ciekawym zagadnieniem, a dokładniej podejściem szkół w Polsce do AI, przede wszystkim w kontekście używania jako narzędzia oraz nauki korzystania z niego.
Przemyślałem sprawę i uważam, że jeżeli na mojej uczelni zakazane zostanie używanie AI jako narzędzia do nauki, zrezygnuję ze studiów na tej uczelni. Jak bardzo byłoby nierozsądne, naiwne, a wręcz epatujące brakiem szacunku do samego siebie, oddawanie władztwa nad sobą osobom, które (w przypadku gdyby założony scenariusz okazałby się prawdą) można by określić mianem: zacofanych, zidiociałych, betonowych dziadków?
Sam jestem sceptykiem, jeżeli chodzi o niekontrolowany rozwój AI oraz uważam, że wielce prawdopodobne jest, iż w przyszłości pewien zakres będzie musiał być ograniczony prawnie. Natomiast rozwój AI na tę chwilę rośnie bardziej wykładniczo, niż liniowo. Mówiąc precyzyjniej – zapierdala. Oburzanie się, tupiąc nóżką i przymykając oczka, jest najbardziej ignorancką, niedojrzałą, dziecinną i po prostu szkodliwą postawą, jaką można przybrać. Im szybciej dana jednostka nauczy się korzystać z AI, zdobędzie praktyczne doświadczenie i zacznie dostrzegać nowe możliwości, które ów AI oferuje – tym lepiej.
Jeżeli natomiast chodzi o AI w prawie, to profesjonaliści, którzy nie prezentują mentalności wykształconej małpy, sami poświęcają czas i pieniądze na naukę sztucznej inteligencji. Powstają coraz to nowe narzędzia wykorzystujące AI, które są skierowane do prawników. Bardziej prędzej niż później nawet najtwardszy beton będzie musiał zacząć nadążać za AI, inaczej nie poradzi sobie w nowych realiach rynkowych.
Jak to w szkole bywa…
Gorzej ze środowiskami akademickimi – tam tolerancja wspomnianego zjawiska będzie większa, ponieważ nauczanie prawa trochę odbiega od praktycznego bycia prawnikiem. Rzecz jasna, nauczanie, omijając całkowicie AI, byłoby skrajną głupotą, ale efekty tej skrajnej głupoty przyjdą później. W końcu mniej osób zdecyduje się porzucić rozpoczęte już studia, przez to że na uczelni panuje banicja na AI, aniżeli prawnicy zdecydują się dobrowolnie skazać na śmierć głodową z powodu niedopasowania się do realiów rynkowych.
Prawnicy, a być może tym bardziej ludzie uczący prawa, to często osoby z bardzo czułym ego, zwracającym mocno uwagę na pucowanie berła do glorii i chwały z tytułu swoich osiągnięć naukowych, na jakże to prestiżowym kierunku. Dlatego często, mimo profesji, która wymaga dosyć otwartej głowy, mechanizmy obronne ego okazują się silniejsze, a w konsekwencji osoby z tytułami naukowymi potrafią wysunąć niezbyt rozsądne argumenty przeciwko AI.
O ironio, niewykluczone jest, że prawnicy sami zaczną swoje pseudo edukacyjne wywody o prawie autorskim, które mijają się z prawdą. Gdyby Titanic się tak mijał, jak ten konserwatywny bełkot, nie mielibyśmy filmu z Di Caprio…
Kiedy można trochę pokraść?
Wracając do wątku przewodniego, po tej prostackiej i nieśmiesznej próbie bycia zabawnym: jeżeli w aktach prawa lokalnego, np. w statucie uczelni, regulaminie itd., nie jest to zastrzeżone i przykładowo Michał wygeneruje artykuł w AI i cały ten artykuł skopiuje (przy czym zaznaczę, że w samym artykule nie może znajdować się treść objęta czyimś prawem autorskim, tzn. jeżeli AI wygeneruje treść, która narusza czyjeś prawo autorskie, to my jesteśmy odpowiedzialni, aby się tego pozbyć – załóżmy jednak że tak się nie stało), a wspomniany Michał skopiuje tekst wygenerowany przez AI 1:1, podpisując się pod nim i mówiąc, że jest jego autorstwa (np. artykuł), oraz jeżeli podana praca spełnia wszystkie inne warunki, jakie zadana praca miała spełniać, to wykładowca nie ma żadnej podstawy, by odmówić uznania takiej pracy, że nie jest twoja, bo wykonało ją w całości AI.
Co gorsza, mogą trafić się problemy nawet gdy część takiego tekstu zmienimy. Argumentacja jaka często za tym stoi, opiera się na tym, że to nie jest nasza praca, tylko AI.
Jeżeli chodzi o ChatGPT (bo o nim mówiłem w ostatnim przykładzie), to OpenAI, czyli sami twórcy, nie roszczą sobie żadnych praw autorskich do treści wygenerowanych przez AI, co więcej – dopuszczają ich użytek w celach komercyjnych. A wspomniana argumentacja nie tylko mija się z prawem, ale również z logiką. Gdybyśmy nie mogli używać treści generowanych przez wspomniany już ChatGPT , ze względu na prawa autorskie, to analogicznie konsekwentnie nie powinniśmy móc używać żadnego dokumentu napisanego w Wordzie, gdyż każdy arkusz należałby do Billa Gates’a.
Można spotkać się tutaj ze stwierdzeniem, że przecież to nie jest nasza praca bo AI ją stworzyło, a w Wordzie piszemy sami – tak właściwie, będąc logicznie spójnym, należałoby stwierdzić, że pisząc artykuł w Wordzie, to on również nie jest naszą pracą. Naszą pracą było wciskanie przycisków na klawiaturze, a to że te przybrały formę tekstu, jaką chcieliśmy uzyskać, było pracą komputera. Zatem jest to praca komputera, nie nasza. Jeżeli później wspomniany arkusz wydrukujemy, również nie jest to nasza praca, tylko drukarki.
Wciąż operując tą logiką, obliczenia wykonane przy pomocy kalkulatora również nie są naszymi obliczeniami, nie powinniśmy się nimi posługiwać, jeżeli chcemy być odbierani jako „merytoryczni matematycy czy ekonomiści”, a wynik obliczeń powinien być własnością kalkulatora. Dopiero takie przykłady pokazują, jak głupi jest ten sposób rozumowania oraz że podobne przypadki były już znane ludzkości, a opór wynika ze strachu oraz mechanizmów obrony ego.
Gdzie kończy się opór a zaczyna głupota?
Niestety, szczerze mówiąc, czasami odnoszę wrażenie, że nie każdy wykładowca czy student prawa jest w stanie zrozumieć te proste analogie, które przytoczyłem. Tym bardziej w takim przypadku czerpanie wzorców czy postrzeganie kogoś takiego jako autorytet jest dobrowolnym okaleczaniem swojej sfery intelektualnej.
Kolejnym lewarem, jaki przeciwnicy AI mogą znaleźć i próbować nim, utrudnić nam życie, jest stwierdzenie, że praca wykonana w całości bądź nawet przy użyciu AI, nie spełnia „innych warunków, jakie zadana praca miała spełniać”, a dokładniej – nie jest to praca samodzielna. Warto wtedy zapytać, jaki to człowiek nam pomagał? Bo jeżeli samodzielna praca nie odnosi się wyłącznie do ludzi, to używanie internetu, długopisu czy kartki papieru również jest niedopuszczalne.
Kto lubi rżnąć, ten znajdzie sposób…
Szukając jednak jakiegoś lekko trafnego argumentu przeciw, jest teza, że używając AI, albo raczej zlecając, żeby zrobiła za nas większość roboty, niewiele się nauczymy. Owszem, po części to prawda, po części nie. Spisywanie istniało prawie od zawsze, ściągi na kartkach, ściąganie z internetu itd. Teraz to po prostu łatwiejsze.
Prawda jest taka, że dzięki AI możemy uczyć się efektywniej niż z nauczycielem – wystarczy chcieć i odpowiednio je wykorzystywać. Jeżeli ktoś chce skopiować pracę 1:1 niczym bezrefleksyjny plankton, to to zrobi. Natomiast ludzie cechujący się taką postawą sami zostaną zweryfikowani. Gdyby nie AI, to podobnym lenistwem i ignorancją wykazywaliby się na inne sposoby.
Po prostu w społeczeństwie zawsze jest pewien odsetek ludzi tego typu. Równie dobrze moglibyśmy do zakupu noża dodawać ostrzeżenie BHP, aby nie podcinać sobie nim gardła. Jest to podobny poziom absurdu, gdyż każda zdrowo myśląca osoba, w tym również ta, która to wykonuje, wie że kopiowanie 1:1 bez cienia analizy nie da żadnej wiedzy ani umiejętności.
To nie jest tak, że ktoś przypadkiem się nie nauczy, tylko ktoś, kto podjął świadomą decyzję że nie chce się uczyć, ma łatwiejszą drogę pójścia na skróty niż kiedyś miał. Natomiast, nawet i to niekoniecznie – AI często samo daje uzasadnienia i tłumaczenie danych zagadnień.
W poszukiwaniu leku na głupotę…
W dodatku ludzie posuwający się do całkowitego kopiowania pracy to często ci sami ludzie, którzy są gotowi wysłać tę pracę jako gotową, bez żadnej weryfikacji czy korekty błędów, co już jest skrajną głupotą, gdyż w przypadku, gdyby np. ChatGPT rozwiązał kazus dobrze, ale podał totalnie złe artykuły, nie dość że od razu wyszłoby, że skopiowaliśmy całą pracę, to w dodatku wyszłoby jak bardzo mieliśmy ją w dupie, że nawet najważniejszych fragmentów tej pracy nie sprawdziliśmy.
Mimo wszystko pokładam nadzieję, że osoby, które czegoś takiego dokonują, poczują lekkie zażenowanie sobą, że nie chciało im się wykonać nic więcej niż kliknięcie Ctrl + C i Ctrl + V. Po kilku takich niefortunnych incydentach większość grupy, chcąc uniknąć kolejnej błazenady, sama zacznie weryfikować to, co AI wytworzyło, a w efekcie jednak trochę się uczyć.
Słowem poważniejszego podsumowania.
W mojej opinii AI już w aktualnej formie stanowi świetne narzędzie do nauki, a jego rozwój prawdopodobnie w najbliższym czasie drastycznie nie zwolni, chcąc pozostać konkurencyjnym na rynku, trzeba umieć adaptować się do realiów ,a te zaczynają wyglądać tak jak sami widzimy.
Brak wsparcia uczniów chcących korzystać z AI, oraz brak wsparcia ich w nauce korzystania z AI, jest po prostu podkładaniem betonowej nogi w drodze do sukcesu młodych ludzi a wszystko to w imię wyimaginowanej ideologii bądź obrony własnego ego.