Uredničko vijeće znanstvenoga časopisa Nature donijelo je odluku kojom se zabranjuje uporaba i objava slika, grafika, filmova i drugih znanstvenih materijala pripravljenih uz pomoć umjetne inteligencije (Nature 2023, 618, 214), piše Valerije Vrček za Glas Koncila.
Urednici jednoga od vodećih svjetskih časopisa smatraju da uporaba programskih alata, poput ChatGPT-a ili Midjourneyja, onečišćuje transparentnost znanosti: ”To je pitanje integriteta znanstvenoga istraživanja, suglasnosti stvarnih autora, privatnosti i zaštite intelektualnoga vlasništva.”
ChatGPT neće moći biti naveden kao suradnik u poslu
Prije objave znanstvenoga rada urednici i recenzenti tražit će od autora izjavu da priloženi materijali nisu generirani pomoću alata umjetne inteligencije.
Također ne će biti moguće kao suradnika na radu navesti ChatGPT ili neki drugi protokol. Jedino je dopušteno u ”poliranju teksta” upotrijebiti velike jezične modele (LLM), ali se svaka rečenica koja je derivat programskoga paketa mora prijaviti uredništvu.
Takva stroga pravila i konzervativni odnos prema progresivnoj tehnologiji utjecat će na znanstvenu politiku i publikacijske aktivnosti ostalih časopisa.
>Elon Musk: Umjetna inteligencija može predstavljati rizik za ljude
Umjetna inteligencija ne može biti autor
Profesor Holden Thorp, urednik časopisa Science, također zabranjuje prijavu programa umjetne inteligencije kao autora, ali on ide i korak dalje: zabranjuje uporabu ChatGPT-a u pisanju znanstvenoga teksta.
On smatra da doprinos ChatGPT-a ili sličnih informatičkih alata oduzima radu originalnost i pretvara ga u plagijat. Thorp smatra da je ”ChatGPT zabava, ali nije autor” (Science 2023, 379, 313). Primjere vodećih svjetskih časopisa slijede druge izdavačke kuće i uredništva.
Veliki izdavači, poput Springera ili Elseviera, koji objavljuju nekoliko tisuća znanstvenih časopisa, zabranili su autorstvo paketima umjetne inteligencije, ali i uporabu jezičnih transformera u pisanju interpretacija ili zaključaka znanstvenih istraživanja.
>Stručnjaci: Nova umjetna inteligencija predstavlja već danas jasnu opasnost
Uporaba ChatGPT-a dovest će do mnogih dezinformacija i stvaranja znanstvenoga smeća
Ako se znanstvenici koriste ChatGPT-om za pretvorbu svojih misli u tekst, tu operaciju moraju prijaviti, odnosno javno priznati. Drugim riječima, moraju priznati da njihova originalnost, struktura misli i jezične sposobnosti ne mogu nadvisiti trenirane algoritme.
S obzirom na masovnu pojavu prosječnih znanstvenika, ulazak neoriginalnih i redundantnih kompilacija u znanstvenu literaturu ne će biti lako uočljiv. Sandra Wachter, profesorica tehnologije na oxfordskom sveučilištu, podupire ograničenja i skeptično stajalište prema surogatima inteligencije:
”Uporaba ChatGPT-a dovest će do mnogih dezinformacija i stvaranja znanstvenoga smeća. Mislim da bi se slične zabrane trebale razmotriti u drugim područjima, poput obrazovanja, umjetnosti i novinarstva.”
To se i dogodilo. Nedavno je skupina svjetski poznatih pisaca, umjetnika, novinara i ilustratora potpisala javni apel kojim se traži da se ograniči uporaba ”vampirskih generatora ilustracija” u medijima, koji idu na štetu živih autora s kistom u ruci:
”Korporacije umjetne inteligencije spremne su uništiti sredstva za život umjetnika, a za to se koriste originalnim djelima ukradenim od samih autora.”
>Niti je umjetna, niti je inteligencija
Umjetna inteligencija ne može zamijeniti čovjeka
Ipak, kao što IBM-ovo računalo Deep Blue može pobijediti Kasparova u šahu, kao što autopiloti mogu pružiti sigurniju vožnju od umornih taksista, tako i ChatGPT može pripremiti bolji sažetak od znanstvenika imitatora.
U svim tim slučajevima roboti nisu kreativni, samostalni ni inteligentni, nego su običan proizvod ljudskoga dizajna. Neprikladna uporaba tih tehnologija otkriva pak nesposobnost ili neodgovornost korisnika skromnih kompetencija.
U svakom slučaju prigovor iz vodećih znanstvenih časopisa Nature i Science nije razumno ignorirati ili ga odbaciti poštapalicom:
”To je strah od nepoznatoga.” ChatGPT i slični alati nisu definicija stvarnoga napretka niti je novo uvijek bolje. Implementacija novih tehnologija redovito zahtijeva kolateralne žrtve, omogućuje manipulacije i podupire nastavak društvenih suprotnosti, sukoba i nepravde.
Nažalost, fatalizam napretka podrazumijeva eliminaciju opreza i pokreće revoluciju koja jede svoju djecu.