Nature lo mette nero su bianco, ICML lo conferma: le allucinazioni dell'AI ormai falsano anche la revisione scientifica
“L'articolo evidenzia come l'uso dell'intelligenza artificiale stia compromettendo la revisione scientifica, con casi di pubblicazioni che presentano citazioni inventate. Questo solleva preoccupazioni sulla fiducia nei lavori accademici.”
Ahi, ahi, AI, ci risiamo, come era prevedibile è successo di nuovo: l’intelligenza artificiale, mentre da un lato produce risultati interessanti dal punto di vista scientifico e diagnostico quando usata come strumento da persone competenti, dall’altra sta incasinando il meccanismo accademico delle pubblicazioni scientifiche, e stavolta se ne cominciano a lamentare in contesti ufficiali.
Nature riporta che ICML, una delle maggiori conferenze mondiali sull’intelligenza artificiale, ha respinto 497 paper, circa il 2% delle submission, dopo avere scoperto che i loro autori avevano violato le regole sull’uso dei modelli linguistici nella peer review di altri lavori, in vari casi lasciando perfino watermark riconoscibili. Il 2% sembra poco solo a chi non ha idea di cosa significhi intercettare quasi cinquecento paper prima che entrino nel circuito. Come disse Doctor House guardando delle analisi, con Cameron che gli diceva “Ma sono solo sotto di 2 punti”, “Se il tuo DNA fosse sotto di due punti saresti un delfino”.
La cosa paradossale è che l’AI stia entrando nel punto stesso in cui la scienza dovrebbe esercitare il massimo controllo: la valutazione dei lavori altrui. Dei quali, propri…
