Un dels principals problemes que ha suposat la introducció dels models de llenguatge grans i els bots de IA accessibles a tothom, consisteix en la dificultat de diferenciar el contingut generat per la IA, d’un contingut generat per una persona humana, sobretot quan el primer ha estat revisat per algú per a evitar unes certes repeticions i frases amb un sentit incomplet que generen aquests models.
Això és preocupant en el cas de detectar fake news o treballs acadèmics en els quals l’autor no és l’alumne, sinó una IA que ha fet el treball per ell. Eines per a la detecció d’aquest contingut generat existeixen, però no són molt fiables, no detectant alguns textos generats, així com donant falsos positius per a alguns textos que, realment, han estat escrits íntegrament per una persona.
En aquest context, el Wall Street Journal revela que OpenAI disposa d’una eina d’ús intern, que facilita la detecció de contingut generat per un model de llenguatge de IA, i que és capaç d’oferir una efectivitat del 99,99%. Pel que ha transcendit, aquesta eina funciona mitjançant la introducció d’una “marca d’aigua” en els textos generats que, després, l’eina detecta.
Com és lògic pensar, i malgrat que l’empresa de Sam Altman no ha volgut donar molts més detalls, se sospita que aquesta marca d’aigua no és explícita, sinó que consistiria en un patró específic o més d’un, que un algorisme seria capaç de detectar, encara que seria imperceptible a l’ull humà i, fins i tot, podria resistir a alguns canvis menors realitzats manualment en el contingut, com el canvi de paraules per sinònims.
Entre les limitacions que presenta, tenim, en primer lloc, que només és vàlid per a detectar textos generats amb ChatGPT, no donant cap garantia amb textos generats per Gemini o Flama. També podria ser sortejable si, precisament, utilitzem un d’aquests altres models per a reescriure el text, o realitzem una traducció automàtica amb ell emprant, per exemple, Google Translate.
Tampoc és segur que funcioni amb la mateixa efectivitat (o, fins i tot, que funcioni mínimament) amb textos escrits en altres idiomes distints de l’anglès. Fins i tot una tècnica com generar en un altre idioma i, després, traduir-lo a l’anglès, podria arribar a despistar a l’eina de detecció.
Fins que OpenAI no es decideixi a informar obertament d’aquesta eina, no sabrem massa cosa del cert.
De moment, es manté oculta de l’ús públic pel temor que pugui portar a acusacions injustes de fer trampa mitjançant IA: segons enquestes internes de la companyia, un 69% dels usuaris de ChatGPT creu que el detector podria generar falsos positius, i un 30% va indicar que canviaria a un altre model de IA si l’eina es posés en marxa.
El temor al fet que uns altres puguin descobrir el patró que conforma la marca d’aigua, i desenvolupar mètodes per a eludir el detector, també pesa en la decisió d’OpenAI, ja que invalidaria un ús, per exemple, en detecció de fake news.
No obstant això, la signatura estatunidenca no descarta un futur llançament públic i, segons informa el Wall Street Journal, està considerant alternatives, ja que hi ha una forta demanda per un detector d’aquest tipus, amb dades internes que mostren que un 80% dels enquestats en l’àmbit mundial dona suport a la seva existència.
En qualsevol cas, aquest debat subratlla la importància de ser crítics amb la informació que consumim, garantint que, independentment de la font, puguem confiar en la seva veracitat.
Per Tecnonews