Super! Niesamowite! Super niesamowite? Możesz ze słabego ucznia uczynić dobrego. Wystarczy personalizacja i sto procent uwagi. Dla każdego. W każdej chwili nauki. Łatwizna? Nie trzeba mieć doświadczenia pracy w szkole żeby wiedzieć jakie to trudne. Chyba że zastosujemy AI lub, jak kto woli, SI czyli sztuczną inteligencję. Czy tym samym zgotujemy sobie świat, w którym program wypluje „Dzień dobry, świecie” czy „Do widzenia, świecie”?
Na pomysł takiego „Super Tutor” dla ucznia i nauczyciela wpadł Sal Khan, założyciel i szef Khan Academy. W jednym ze swoich wystąpień przedstawia on zalety takiego rozwiązania. (https://www.ted.com/talks/sal_khan_the_amazing_ai_super_tutor_for_students_and_teachers/c?subtitle=en) Nie jest dobrze, mówi, gdy pytamy chatGPT o gotowe odpowiedzi ale co innego, gdy AI nasuwa nam podpowiedzi, współpracuje z nami. Nawet rozmawia z nami, wcielając się niejako w dowolną postać literacką. Pan Tadeusz będzie mógł nam opowiedzieć o swoim świecie doświadczanym ze swojego punktu widzenia.
Literatura to nie jedyny obszar zastosowań AI a i tu pojawia się pytanie, z jakich źródeł ta technologia będzie korzystać i kto ją będzie programował. AI nie wie, czy coś jest prawdziwe. Umie jedynie zebrać przeogromne ilości treści i przedstawić coś na kształt treści pisanej przez człowieka. Skoro nie wie, co jest prawdziwe lub poprawne, to będzie można jej podsuwać treści własne. Zupełnie dowolne. Już dziś pisze się przecież na nowo książki klasyków, usuwając z nich słowa, które komuś nie pasują, a które jednak mocno wpływają na znaczenie utworu.
Czy to znaczy, że AI będzie po prostu stronnicza? Czy lepiej gdy będzie mieć wolną rękę w akumulowaniu wiedzy i uczeniu się poprzez proces nazwany jako machine learning? A będzie przecież biegać sobie wolno po zasobach internetu. Wolność taka może oznaczać autonomiczność a stąd już blisko do autonomicznych systemów kierowanych przez AI. Czy tego chcemy? Dla przykładu, autonomiczny system uzbrojenia? Max Tegmark uważa, że to droga do Orwelowskiej dystopii (https://www.youtube.com/embed/VcVfceTsD0A?start=7678).
Warto zapoznać się i choć trochę zgłębić temat sztucznej inteligencji. Najlepiej korzystając z kilku źródeł. Jednym z nich jest filmik udostępniony przez Maxa Tegmarka prezentujący trzy spojrzenia na AI oraz zachęcający odbiorcę do własnych przemyśleń: (1) przereklamowane, (2) poważna sprawa, ale będzie dobrze, (3) niebezpieczeństwa są realne (https://t.co/fd02r8L2GG).
Zatrzymajmy to! Tak pisali niedawno w liście otwartym. (https://futureoflife.org/open-letter/pause-giant-ai-experiments/). Zatrzymajmy szkolenia systemów AI potężniejszych niż GPT-4 na co najmniej 6 miesięcy, sugeruje, a może nawet żąda ponad 1000 sygnatariuszy listu. Wśród nich Elon Musk. A inżynier Blake Lemoine porównuje tę technologię do bomby atomowej i twierdzi, że chatbot firmy Google uzyskał świadomość. I za to został zwolniony przez Google w 2022. I naokoło wielu mówi o regulacjach. "Jeśli taka przerwa nie może zostać szybko uchwalona, rządy powinny wkroczyć i wprowadzić moratorium." - czytamy chociażby we wspomnianym liście. Ale czy my w ogóle mamy stosowne regulacje na przykład w tak ważnych kwestiach jak żywność albo farmakologia?
Poszły konie po betonie i kasa znowu napędza wyścig. Z tego co pisze Ian Hogarth wynika, że gra jest pomiędzy tylko kilkoma korporacjami, a celem jest stworzenie technologi zbliżonej do Boga. (https://archive.is/jFfBQ). Oby to nie była kolejna wieża Babel.