El gran secreto de OpenAI, la herramienta perfecta para detectar textos escritos con inteligencia artificial

César Rodríguez Pérez
C. Rodríguez REDACCIÓN

ACTUALIDAD

Dado Ruvic | REUTERS

La compañía que creó ChatGPT no se decide a liberar una tecnología de «watermarking» que permitiría evitar muchas trampas de estudiantes

26 ago 2024 . Actualizado a las 13:29 h.

Abrí Copilot, el asistente de IA de Microsoft, que lleva en las tripas al famosísimo ChatGPT. Lo saludé con un «Buenas tardes» y le hice la siguiente pregunta: ¿Hay alguna herramienta capaz de detectar textos escritos con una inteligencia artificial? Me devolvió el saludo y contestó de manera positiva. Y me hizo tres recomendaciones: Quillbot AI Detector, NeuralWriter AI Content Detector y OpenAI Classifier (ya clausurada).

En principio, las tres herramientas parecen capaces de analizar textos en varios idiomas y de reconocer si han sido elaborados con Gemini, ChatGPT u otros servicios de IA. Detectan patrones y estilos. Y ofrecen una probabilidad de acierto. ¿Son fiables al 100 %? No. Repreguntado, el propio Copilot lo admite. Dice que «han mejorado mucho», pero «no son infalibles». Pueden ofrecer falsos positivos o negativos. En definitiva, no podemos utilizarlos para estampar un sello de autoría humana o sintética en trabajos académicos, artículos informativos, contenido web u obras literarias.

¿Estamos condenados a sospechar de cualquier texto que leamos entonces? No. Hay otros métodos indirectos, casi todos relacionados con la tecnología Blockchain, para poder crear certificados digitales de confianza o verificar la trazabilidad de los contenidos. ¿Cómo fue obtenida la información o el material audiovisual? ¿Fue editado por un ser humano? ¿Y fue alterado, más allá de las lógicas modificaciones de duración o montaje? Las cadenas de bloques pueden registrar todos los pasos.

Hay otras opciones. Por ejemplo, la BBC introdujo en primavera un botón en sus contenidos digitales que permite averiguar el origen de una imagen o un vídeo y cómo fue verificado por el personal de la cadena pública británica. Son pasos dados para combatir las noticias falsas, ¿pero cómo puede hacer un profesor para determinar si un comentario de texto lo ha realizado un alumno o una IA? Ahí entra en juego el watermarking.

 A principios de mes el Wall Street Journal publicaba un artículo titulado: «Hay una herramienta para cazar a estudiantes que hacen trampas con ChatGPT, pero OpenAI  no la hecho pública». El prestigioso medio estadounidense explicaba que la compañía de Sam Altman tenía una tecnología capaz de detectar texto redactado por una IA con una precisión del 99,9 %. Y que llevaba dos años debatiendo internamente sobre si sacarlo al mercado o no. ¿Cómo funciona ese detector? Según el WSJ, permite crear marcas de agua invisibles (watermarkingen las creaciones de inteligencia artificial, para que luego pudieran ser identificadas. 

La publicación generó revuelo sobre todo en Estados Unidos. OpenAI confirmó al portal TechCrunch que la información era precisa, que estaban investigando esa tecnología. Y que sus avances son «prometedores», pero que había debates internos sobre su distribución por las «complejidades del sistema» y porque puede causar un impacto significativo en el «ecosistema de la inteligencia artificial» más allá de la propia empresa, a pesar de que en principio solo funcionaría en ChatGPT.

OpenAI citaba dos inconvenientes para su publicación: los riesgos de dejar sin detectar textos de IA traducidos después a otros idiomas o reelaborados por diferentes asistentes, con órdenes específicas de borrar las marcas. Entonces, ¿puede ser el «watermarking» el camino para identificar correctamente los contenidos hechos con IA? Parece una vía con futuro. El gran rival de la compañía de Altman en la carrera por popularizar la inteligencia artificial, Google, anunció en mayo que estaba también trabajando con la tecnología de marcas de agua para identificar textos, audios y vídeos creados de forma sintética. Su herramienta se llama SynthID. Y no deja huellas visibles para los seres humanos, pero sí para las máquinas.