OpenAI está construyendo una red de evaluación para abordar la seguridad de la IA, y puedes aplicar

OpenAI construye una red de evaluación de seguridad de la IA y puedes solicitar acceso.

El ChatGPT de OpenAI ha acumulado más de 100 millones de usuarios en todo el mundo, destacando tanto los casos de uso positivos para la inteligencia artificial como la necesidad de una mayor regulación. OpenAI está formando un equipo para ayudar a construir modelos más seguros y robustos. 

El martes, OpenAI anunció el lanzamiento de su Red de Evaluación de OpenAI, compuesta por expertos que pueden ayudar a proporcionar conocimientos para informar las estrategias de evaluación y mitigación de riesgos de la empresa para implementar modelos más seguros. 

También: Todo lo que debes saber sobre los anuncios de IA de Amazon hoy 

Esta red transformará la forma en que OpenAI lleva a cabo sus evaluaciones de riesgo en un proceso más formal que involucra diversas etapas del ciclo de desarrollo del modelo y del producto, en lugar de “compromisos puntuales y procesos de selección antes de las principales implementaciones del modelo”, según OpenAI. 

OpenAI busca expertos de diferentes campos para formar parte del equipo, incluyendo experiencia en educación, economía, derecho, idiomas, ciencia política y psicología, por nombrar solo algunos. 

También: Cómo utilizar ChatGPT para investigar para trabajos, presentaciones, estudios y más

Pero OpenAI dice que no es necesario tener experiencia previa en sistemas de inteligencia artificial o modelos de lenguaje. 

Los miembros serán compensados por su tiempo y estarán sujetos a acuerdos de confidencialidad. Dado que no estarán involucrados en cada nuevo modelo o proyecto, formar parte del equipo de evaluación podría requerir un compromiso de tiempo mínimo de cinco horas al año. Puedes solicitar formar parte de la red a través del sitio de OpenAI. 

Además de las campañas de evaluación de OpenAI, los expertos pueden interactuar entre sí sobre “prácticas y hallazgos de evaluación”, según el artículo del blog. 

También: Amazon convierte a Alexa en un ChatGPT manos libres

“Esta red ofrece una oportunidad única para dar forma al desarrollo de tecnologías y políticas de IA más seguras, y al impacto que la IA puede tener en la forma en que vivimos, trabajamos e interactuamos”, dice OpenAI. 

La evaluación por equipos es un proceso esencial para probar la eficacia y garantizar la seguridad de las nuevas tecnologías. Otros gigantes tecnológicos, como Google y Microsoft, tienen equipos de evaluación para sus modelos de IA.