4 formas de superar tus preocupaciones más grandes sobre la IA generativa

4 formas de superar tus mayores preocupaciones sobre la IA generativa

worry-tech-gettyimages-1427840767

La inteligencia artificial generativa (AI) es mágica para el ojo inexperto.

Desde resumir texto hasta crear imágenes y escribir código, herramientas como ChatGPT de OpenAI y Copilot de Microsoft producen soluciones brillantes a preguntas desafiantes en cuestión de segundos. Sin embargo, las habilidades mágicas de la IA generativa también pueden venir acompañadas de algunos trucos poco útiles.

También: ¿Tu negocio necesita un director de IA?

Ya sean preocupaciones éticas, problemas de seguridad o alucinaciones, los usuarios deben ser conscientes de los problemas que pueden socavar los beneficios de la tecnología emergente. Aquí, cuatro líderes empresariales explican cómo se pueden superar algunas de las grandes preocupaciones con respecto a la IA generativa.

1. Aprovecha las nuevas oportunidades de manera ética

Birgitte Aga, jefa de innovación e investigación en el Museo Munch de Oslo, Noruega, dice que muchas de las preocupaciones con la IA están asociadas con las personas que no entienden su impacto potencial, y con razón.

Incluso una herramienta de IA generativa de alto perfil como ChatGPT ha estado disponible para el público solo durante poco más de 12 meses. Mientras muchas personas han experimentado con la tecnología, pocas empresas han utilizado la herramienta en un entorno de producción.

Aga dice que las organizaciones deberían brindar a sus empleados la oportunidad de ver lo que las tecnologías emergentes pueden hacer de manera segura y segura. “Creo que reducir el umbral para que todos participen es clave”, dice. “Pero eso no significa hacerlo sin crítica”.

Aga dice que a medida que los empleados discuten cómo se puede usar la IA, también deben considerar algunos de los grandes problemas éticos, como el sesgo, los estereotipos y las limitaciones tecnológicas.

También: Seguridad y sesgo de IA: Descifrando la compleja cadena de entrenamiento de IA

Explica en una videoconferencia con ENBLE cómo el museo está trabajando con el especialista en tecnología, TCS, para encontrar formas en que la IA puede ser utilizada para ayudar a que el arte sea más accesible para un público más amplio.

“Con TCS, realmente tenemos una alineación en cada reunión en lo que respecta a nuestra ética y moral”, dice. “Encuentra colaboradores con los que realmente te alinees a ese nivel y luego construye a partir de ahí, en lugar de simplemente encontrar personas que hagan cosas geniales”.

2. Crea un equipo de trabajo para mitigar los riesgos

Avivah Litan, vicepresidenta distinguida de analistas en Gartner, dice que uno de los problemas clave a tener en cuenta es la presión de cambio por parte de personas fuera del departamento de TI.

“El negocio quiere avanzar a toda velocidad”, dice, refiriéndose a la adopción de herramientas de IA generativa por parte de profesionales en toda la organización, con o sin el consentimiento de los responsables. “Las personas encargadas de la seguridad y el riesgo tienen dificultades para comprender esta implementación, realizar un seguimiento de lo que las personas están haciendo y gestionar el riesgo”.

También: El 64% de los trabajadores ha atribuido el trabajo de IA generativa como propio

Como resultado, hay mucha tensión entre dos grupos: las personas que quieren usar IA y las personas que necesitan gestionar su uso.

“A nadie le gusta frenar la innovación, pero los responsables de seguridad y riesgo nunca han tenido que lidiar con algo como esto antes”, dice en una videoconferencia con ENBLE. “Aunque la IA ha existido durante años, no tenían que preocuparse realmente por esta tecnología hasta el auge de la IA generativa.”

Litan dice que la mejor manera de disipar las preocupaciones es crear un grupo de trabajo para la IA que cuente con expertos de toda la empresa y que tenga en cuenta la privacidad, la seguridad y el riesgo.

“Entonces todos estarán en la misma página, sabrán cuáles son los riesgos, sabrán qué se supone que debe hacer el modelo y obtendrán un mejor rendimiento”, dice.

También: IA en 2023: Un año de avances que no dejó nada sin cambios para los humanos

Litan dice que la investigación de Gartner sugiere que dos tercios de las organizaciones aún no han establecido un grupo de trabajo para la IA. Ella alienta a todas las empresas a crear este tipo de equipo multidisciplinario.

“Estos grupos de trabajo respaldan una comprensión común”, dice. “Las personas saben qué esperar y la empresa puede crear más valor”.

3. Restrinja sus modelos para reducir alucinaciones

Thierry Martin, gerente senior de estrategia de datos y análisis en Toyota Motors Europe, dice que su mayor preocupación con la IA generativa son las alucinaciones.

Ha visto este tipo de problemas de primera mano cuando ha probado la IA generativa con fines de codificación.

Más allá de las exploraciones personales, Martin dice que las empresas deben prestar atención a los modelos de lenguaje grandes (LLM) que utilizan, las entradas que requieren y los resultados que producen.

“Necesitamos modelos de lenguaje grandes muy estables”, dice. “Muchos de los modelos más populares hoy en día están entrenados en muchas cosas, como poesía, filosofía y contenido técnico. Cuando haces una pregunta, hay una puerta abierta a las alucinaciones”.

También: 8 maneras de reducir las alucinaciones de ChatGPT

En una entrevista en video uno a uno con ENBLE, Martin enfatiza que las empresas deben encontrar formas de crear modelos de lenguaje más restringidos.

“Quiero mantenerme dentro de la base de conocimientos que estoy proporcionando”, dice. “Entonces, si le pido a mi modelo algo específico, me dará la respuesta correcta. Así que me gustaría ver modelos más conectados con los datos que proporciono”.

Martin está interesado en conocer más sobre desarrollos pioneros, como la colaboración de Snowflake con Nvidia, donde ambas compañías están creando una fábrica de IA que ayuda a las empresas a convertir sus datos en modelos de IA generativos personalizados.

“Por ejemplo, un LLM perfecto para hacer consultas de SQL o código Python es algo interesante”, dice. “ChatGPT y todas estas otras herramientas públicas son buenas para el usuario casual. Pero si conectas ese tipo de herramienta a datos empresariales, debes ser cauteloso”.

4. Progresar lentamente para moderar las expectativas

Bev White, CEO de la especialista en reclutamiento Nash Squared, dice que su gran preocupación es que la realidad práctica de usar IA generativa podría ser muy diferente de la visión.

“Ha habido mucha publicidad exagerada”, dice en una conversación en video con ENBLE. “También ha habido muchos alarmistas diciendo que se perderán empleos y que la IA creará un desempleo masivo. Y también están todos los temores sobre la seguridad y privacidad de los datos”.

White dice que es importante reconocer que los primeros 12 meses de la IA generativa se han caracterizado por las grandes empresas de tecnología compitiendo para refinar y actualizar sus modelos.

“Estas herramientas han pasado por muchas iteraciones, y eso no es por accidente,” dice. “Las personas que utilizan la tecnología descubren ventajas, pero también necesitan estar atentos a los cambios a medida que cada iteración sale.”

También: Los 3 mayores riesgos de la IA generativa y cómo manejarlos

White aconseja a los CIO y otros altos directivos que procedan con cautela. No tengan miedo de dar un paso atrás, aunque parezca que todo el mundo está avanzando rápidamente.

“Creo que necesitamos algo tangible que podamos utilizar como puntos de referencia. Los CISO de las organizaciones deben empezar a pensar en la IA generativa, y nuestras pruebas sugieren que lo están haciendo. Además, la regulación debe mantenerse al día con el ritmo del cambio,” dice.

“Quizás necesitemos ir un poco más despacio mientras descubrimos qué hacer con la tecnología. Es como inventar un cohete increíble, pero no tener los estabilizadores y sistemas de seguridad a su alrededor antes de lanzarlo.”