Incluso OpenAI ha renunciado a intentar detectar el plagio de ChatGPT | ENBLE
OpenAI renuncia a detectar el plagio de ChatGPT | ENBLE
OpenAI, el creador del chatbot de inteligencia artificial (IA) ChatGPT, ha cerrado la herramienta que desarrolló para detectar contenido creado por IA en lugar de humanos. La herramienta, llamada AI Classifier, ha sido cerrada solo seis meses después de su lanzamiento debido a su “baja tasa de precisión”, según OpenAI.
Desde que ChatGPT y otros servicios similares han ganado popularidad, ha habido una reacción en contra por parte de varios grupos preocupados por las consecuencias del uso no controlado de la IA. Por un lado, los educadores están especialmente preocupados por el potencial de los estudiantes de utilizar ChatGPT para escribir sus ensayos y tareas, y luego hacerlos pasar como suyos.
El AI Classifier de OpenAI era un intento de calmar los temores de estos y otros grupos. La idea era que pudiera determinar si un texto fue escrito por un humano o un chatbot de IA, brindando a las personas una herramienta para evaluar a los estudiantes de manera justa y combatir la desinformación.
Sin embargo, desde el principio, OpenAI no parecía tener mucha confianza en su propia herramienta. En una publicación de blog anunciando la herramienta, OpenAI declaró que “Nuestro clasificador no es completamente confiable”, señalando que identificaba correctamente los textos escritos por IA de un “conjunto de desafío” solo el 26% de las veces.
La decisión de abandonar la herramienta no se anunció con mucho bombo, y OpenAI no ha publicado una publicación dedicada en su sitio web. En cambio, la compañía ha actualizado la publicación en la que reveló el AI Classifier, afirmando que “el clasificador de IA ya no está disponible debido a su baja tasa de precisión”.
La actualización continuó: “Estamos trabajando para incorporar comentarios y actualmente estamos investigando técnicas de procedencia más efectivas para el texto, y nos hemos comprometido a desarrollar e implementar mecanismos que permitan a los usuarios comprender si el contenido de audio o visual es generado por IA”.
Se necesitan mejores herramientas
El AI Classifier no es la única herramienta que se ha desarrollado para detectar contenido creado por IA, ya que existen competidores como GPTZero que seguirán operando a pesar de la decisión de OpenAI.
Intentos anteriores de identificar la escritura de IA han fracasado de manera espectacular. Por ejemplo, en mayo de 2023, un profesor reprobó por error a toda su clase después de usar ChatGPT para detectar plagio en los trabajos de sus estudiantes. No hace falta decir que ChatGPT se equivocó gravemente, al igual que el profesor.
Es motivo de preocupación cuando incluso OpenAI admite que no puede percibir adecuadamente el plagio creado por su propio chatbot. Esto ocurre en un momento de creciente ansiedad sobre el potencial destructivo de los chatbots de IA y los llamados a suspender temporalmente el desarrollo en este campo. Si la IA tiene tanto impacto como algunas personas están prediciendo, el mundo necesitará herramientas más sólidas que el fallido AI Classifier de OpenAI.