Todos quieren una IA responsable, pero pocas personas están haciendo algo al respecto

Todos quieren IA responsable, pero pocos actúan

Casi nueve de cada diez líderes empresariales están de acuerdo en que es importante tener pautas claras sobre ética de la inteligencia artificial (IA) y responsabilidad corporativa, pero apenas unos pocos admiten tener dichas pautas, según muestra una encuesta reciente.

Estos hallazgos sugieren que hay confusión sobre qué enfoques se deben tomar para gobernar la adopción de la IA, y los profesionales de la tecnología deben dar un paso adelante y liderar el desarrollo seguro y ético de sus iniciativas basadas en datos.

También: Cinco formas de usar la IA de manera responsable

Los resultados provienen de una encuesta basada en las opiniones de 500 líderes empresariales publicada por la compañía tecnológica Conversica, que afirma: “Un mensaje contundente emerge de la encuesta: la mayoría de los encuestados reconocen la importancia primordial de pautas bien definidas para el uso responsable de la IA dentro de las empresas, especialmente aquellas que ya han adoptado la tecnología”.

Casi las tres cuartas partes (73%) de los encuestados dijeron que las pautas de IA son indispensables. Sin embargo, solo el 6% ha establecido pautas éticas claras para el uso de la IA, y el 36% indica que podría implementar pautas en los próximos 12 meses.

Incluso entre las empresas con IA en producción, uno de cada cinco líderes en empresas que utilizan actualmente IA admitió tener un conocimiento limitado o nulo sobre las políticas relacionadas con la IA de su organización. Más de un tercio (36%) afirmó estar solo “algo familiarizado” con las preocupaciones relacionadas con las políticas.

Las pautas y políticas para abordar la IA responsable deben incorporar gobernanza, datos de entrenamiento imparciales, detección de sesgos, mitigación de sesgos, transparencia, precisión y la inclusión de supervisión humana, afirman los autores del informe.

También: Los mejores chatbots de IA: ChatGPT y otras alternativas destacadas

Alrededor de las dos terceras partes (65%) de los ejecutivos encuestados dijeron que ya tienen o planean tener servicios impulsados por IA en los próximos 12 meses. Los casos de uso más importantes para la IA incluyen el impulso de funciones de participación, como servicio al cliente y marketing (citado por el 39%), y la generación de conocimientos analíticos (35%).

La encuesta encontró que las principales preocupaciones sobre los resultados de la IA son la precisión de los modelos de datos actuales, la información falsa y la falta de transparencia. Más del 77% de los ejecutivos expresaron preocupación por la generación de información falsa por parte de la IA.

Los proveedores de IA no están proporcionando suficiente información para ayudar a formular pautas, dijeron los líderes empresariales, especialmente en lo que respecta a la seguridad y transparencia de los datos, y la creación de políticas éticas sólidas.

También: El auge de la IA actual amplificará los problemas sociales si no actuamos ahora

Aproximadamente dos tercios (36%) de los encuestados dijeron que sus empresas tienen reglas sobre el uso de herramientas de IA generativa, como Chat GPT. Pero el 20% dijo que sus empresas están dando a los empleados individuales total libertad en cuanto al uso de herramientas de IA en el futuro previsible.

La encuesta de Conversica muestra que hay una brecha de liderazgo cuando se trata de hacer de la IA responsable una realidad. Entonces, ¿cómo pueden los líderes tecnológicos y los profesionales de línea de negocio asumir la responsabilidad de garantizar que se implementen prácticas de IA responsables? Aquí están algunas de las pautas clave compartidas por el equipo de IA de Google:

  • Utilizar un enfoque de diseño centrado en el ser humano: “La forma en que los usuarios reales experimentan su sistema es esencial para evaluar el verdadero impacto de sus predicciones, recomendaciones y decisiones. Diseñe características con divulgaciones adecuadas incorporadas: la claridad y el control son cruciales para una buena experiencia del usuario. Modele los posibles comentarios adversos al comienzo del proceso de diseño, seguido de pruebas en vivo específicas e iteración para una pequeña fracción del tráfico antes de la implementación completa”.
  • Interactuar con un conjunto diverso de usuarios y escenarios de casos de uso: “Incorpore comentarios antes y durante el desarrollo del proyecto. Esto creará una amplia variedad de perspectivas de usuarios en el proyecto y aumentará el número de personas que se benefician de la tecnología”.
  • Diseñar su modelo utilizando objetivos concretos de equidad e inclusión: “Considere cómo la tecnología y su desarrollo a lo largo del tiempo afectarán diferentes casos de uso: ¿Qué puntos de vista se representan? ¿Qué tipos de datos se representan? ¿Qué se está dejando fuera?”
  • Verificar el sistema en busca de sesgos injustos: “Por ejemplo, organice un grupo de probadores confiables y diversos que puedan poner a prueba el sistema de manera adversarial e incorpore una variedad de entradas adversariales en las pruebas unitarias. Esto puede ayudar a identificar quiénes pueden experimentar impactos adversos inesperados. Incluso una baja tasa de error puede permitir el ocasional error grave”.
  • Realizar pruebas de estrés del sistema en casos difíciles: “Esto le permitirá evaluar rápidamente el desempeño de su sistema en ejemplos que pueden ser particularmente perjudiciales o problemáticos cada vez que actualiza su sistema. Al igual que con todos los conjuntos de pruebas, debe actualizar continuamente este conjunto a medida que su sistema evoluciona, se agregan o eliminan funciones y tiene más comentarios de los usuarios”.
  • Probar, probar, probar: “Aprenda de las mejores prácticas de prueba de ingeniería de software y calidad de ingeniería para asegurarse de que el sistema de IA funcione según lo previsto y se pueda confiar en él. Realice pruebas unitarias rigurosas para probar cada componente del sistema de forma aislada. Realice pruebas de integración para comprender cómo interactúan los componentes individuales de ML con otras partes del sistema general”.
  • Utilizar un conjunto de datos de referencia de calidad para probar el sistema y asegurarse de que continúe comportándose como se espera: “Actualice regularmente este conjunto de pruebas de acuerdo con los cambios de los usuarios y los casos de uso, y para reducir la probabilidad de capacitación en el conjunto de pruebas. Realice pruebas de usuario iterativas para incorporar un conjunto diverso de necesidades de los usuarios en los ciclos de desarrollo”.
  • Aplicar el principio de ingeniería de calidad de poka-yoke: “Incorpore controles de calidad en un sistema, de modo que las fallas involuntarias no puedan ocurrir o provoquen una respuesta inmediata, por ejemplo, si falta una función importante de manera inesperada, el sistema de IA no generará una predicción”.

La empresa podría querer implementar la inteligencia artificial rápidamente, pero se debe tener precaución para asegurarse de que las herramientas y sus modelos sean precisos y justos. Mientras las empresas buscan que la IA avance, la tecnología debe ofrecer resultados responsables en todo momento.