ChatGPT puede moderar contenido ilegal en sitios como Facebook | ENBLE
ChatGPT moderates illegal content on sites like Facebook | ENBLE
GPT-4 — el gran modelo de lenguaje (LLM) que impulsa ChatGPT Plus — pronto podría asumir un nuevo papel como moderador en línea, supervisando foros y redes sociales en busca de contenido malicioso que no debería ver la luz del día. Así lo afirma una nueva publicación en el blog del desarrollador de ChatGPT, OpenAI, que dice que esto podría ofrecer “una visión más positiva del futuro de las plataformas digitales”.
Al utilizar la inteligencia artificial (IA) en lugar de moderadores humanos, OpenAI afirma que GPT-4 puede llevar a cabo “iteraciones mucho más rápidas en los cambios de política, reduciendo el ciclo de meses a horas”. Además de eso, “GPT-4 también es capaz de interpretar reglas y matices en la extensa documentación de políticas de contenido y adaptarse instantáneamente a las actualizaciones de políticas, lo que se traduce en una etiquetación más consistente”, afirma OpenAI.

Por ejemplo, la publicación del blog explica que los equipos de moderación podrían asignar etiquetas al contenido para explicar si se ajusta o no a las reglas de una determinada plataforma. GPT-4 luego podría tomar el mismo conjunto de datos y asignar sus propias etiquetas, sin conocer las respuestas de antemano.
Los moderadores podrían luego comparar los dos conjuntos de etiquetas y utilizar cualquier discrepancia para reducir la confusión y aclarar sus reglas. En otras palabras, GPT-4 podría actuar como un usuario común y determinar si las reglas tienen sentido.
El costo humano

Actualmente, la moderación de contenido en varios sitios web es realizada por seres humanos, lo que los expone regularmente a contenido potencialmente ilegal, violento o perjudicial. Hemos visto repetidamente el terrible costo que la moderación de contenido puede tener en las personas, con Facebook pagando $52 millones a moderadores que sufrieron de trastorno de estrés postraumático debido a los traumas de su trabajo.
- El streaming alcanza un nuevo récord este verano. Aquí están los se...
- La mejor GPU para 4K resolución UHD, trazado de rayos y más | ENBLE
- ¿Estás pensando en suscribirte a Walmart Plus? Aquí tienes lo que n...
Reducir la carga sobre los moderadores humanos podría ayudar a mejorar sus condiciones de trabajo, y dado que las IA como GPT-4 son inmunes al tipo de estrés mental que los humanos sienten al manejar contenido problemático, podrían ser implementadas sin preocuparse por el agotamiento y el trastorno de estrés postraumático.
Sin embargo, plantea la pregunta de si el uso de IA de esta manera resultaría en pérdida de empleos. La moderación de contenido no siempre es un trabajo divertido, pero sigue siendo un trabajo, y si GPT-4 reemplaza a los humanos en esta área, es probable que haya preocupación de que los antiguos moderadores de contenido simplemente queden desempleados en lugar de ser reasignados a otros roles.
OpenAI no menciona esta posibilidad en su publicación en el blog, y realmente es algo que las plataformas de contenido deben decidir. Pero es posible que esto no haga mucho para calmar los temores de que las grandes empresas utilicen la IA simplemente como una medida de ahorro de costos, sin preocuparse mucho por las consecuencias.
Aún así, si la IA puede reducir o eliminar la devastación mental que enfrentan los equipos agotados y subestimados que moderan el contenido en los sitios web utilizados por miles de millones de personas todos los días, podría haber algo bueno en todo esto. Queda por ver si eso se verá atenuado por despidos igualmente devastadores.