Open AI creó una marca de agua para textos generados por ChatGPT que es efectiva en el 99,9% de los casos. Sin embargo, está analizando su lanzamiento debido a que presenta “complejidades” y su impacto podría ir “más allá” del ecosistema de la marca.
Fuentes de la compañía han adelantado a The Wall Street Journal que el proyecto ha estado sumido en un debate interno. Durante “aproximadamente dos años” llevan planteándose ponerlo a disposición de los usuarios.
En concreto, habría hecho un “método técnicamente prometedor” para detectar texto elaborado con ChatGPT. Aunque Open AI considera que este “tiene riesgos importantes” que están sopesando mientras buscan otras alternativas.
Este periódico recordó que ChatGPT funciona con un sistema de Inteligencia Artificial (IA) que predice qué palabra o parte de palabra, conocido como token, debe ser el siguiente en una oración.
Quieren evitar plagios con ChatGPT
Esto significa que la herramienta “antitrampas” cambiaría la forma en la que otras soluciones de detección seleccionan los token. Unos cambios introducirían un patrón de marca de agua imperceptibles para el ojo humano, pero sí detectables por la tecnología de Open AI.
Este herramienta, que tiene una efectividad del 99,9% cuando ChatGPT ha creado suficiente texto nuevo, está generando dudas a la compañía. Actualmente valora su lanzamiento debido a una serie de complejidades que presenta su uso.
Esto, porque las marcas de agua se pueden borrar mediante técnicas simples, como hacer que Google traduzca el texto a otro idioma. Después se vuelva a traducir al idioma original o el ‘chatbot‘ añade emojis al texto y después los elimine manualmente.
Debido a estas complejidades, creen que decir quién puede usar esta herramienta de detección de ChatGPT sería un desafío.
Esto porque si tuvieran acceso a ella pocas personas no tendría ninguna utilidad. Al contrario, si se le ofrece a muchas, los actores maliciosos podrían descifrar la técnica de marca de agua de Open AI.
La preocupación de Open AI es alta
De esa manera, se valora la posibilidad de proporcionar el detector directamente a educadores o empresas externas. Lo harían para que ayuden a las escuelas a identificar artículos escritos por IA y trabajos plagiados.
Antes de tomar una decisión, Open AI hizo un sondeo entre los usuarios de ChatGPT para conocer su opinión sobre este detector. Allí ha descubierto que el 69% de ellos considera que esta tecnología daría lugar a acusaciones falsas de uso de IA.
De hecho, casi el 30 por ciento dijo que usarían menos su ‘chatbot’ si se implementaran estos cambios.
A la compañía también le preocupa que esta herramienta pueda dañar la calidad del texto hecho por ChatGPT. Esto, a pesar de que a principios de este año hizo una prueba en la que descubrió que las marcas de agua no afectaban el rendimiento del ‘chatbot’.
La compañía publicó una actualización en su blog en el que indica que se encuentra investigando soluciones de texto de ChatGPT. También que sus equipos desarrollan un método de marca de agua “muy preciso y eficaz” contra la manipulación de contenidos.
También comenta que este sistema “es menos robusto contra la manipulación globalizada”. Además, que “tiene el potencial de afectar desproporcionadamente a algunos grupos”.
Por ejemplo, podría estigmatizar el uso de la IA como una herramienta de escritura útil para hablantes no nativos de inglés. Aún se espera qué decisión tome Open AI sobre la medida para ChatGPT.