La mayoría de las personas desconfían de la IA y desean regulación, según nueva encuesta | ENBLE

La mayoría desconfía de la IA y quiere regulación, según encuesta | ENBLE

Una nueva encuesta ha encontrado que la mayoría de los adultos estadounidenses no confían en herramientas de inteligencia artificial (IA) como ChatGPT y se preocupan por su posible mal uso. Esto sugiere que los frecuentes escándalos en torno a malware y desinformación creados por IA están teniendo un impacto y que el público podría estar cada vez más receptivo a ideas de regulación de la IA.

La encuesta de la Corporación MITRE y Harris Poll afirma que solo el 39% de los 2,063 adultos estadounidenses encuestados creen que la tecnología de IA actual es “segura y confiable”, una disminución del 9% con respecto a la última encuesta realizada por las dos empresas en noviembre de 2022.

Sanket Mishra / Pexels

En cuanto a preocupaciones específicas, el 82% de las personas se preocupaban por deepfakes y “otro contenido artificialmente manipulado”, mientras que el 80% temía cómo esta tecnología podría ser utilizada en ataques de malware. La mayoría de los encuestados se preocupaban por el uso de la IA en el robo de identidad, la recolección de datos personales, la sustitución de humanos en el lugar de trabajo y más.

De hecho, la encuesta indica que las personas están cada vez más cautelosas sobre el impacto de la IA en diversos grupos demográficos. Mientras que el 90% de los baby boomers se preocupa por el impacto de los deepfakes, el 72% de los miembros de la Generación Z también se sienten ansiosos por el mismo tema.

Aunque los jóvenes son menos desconfiados de la IA y es más probable que la utilicen en su vida cotidiana, las preocupaciones siguen siendo altas en varios aspectos, incluido si la industria debería hacer más para proteger al público y si la IA debería ser regulada.

Gran apoyo a la regulación

Shutterstock

La disminución del apoyo a las herramientas de IA probablemente ha sido provocada por meses de historias negativas en las noticias sobre herramientas de IA generativa y las controversias que enfrentan ChatGPT, Bing Chat y otros productos. A medida que aumentan los relatos de desinformación, violaciones de datos y malware, parece que el público está mostrando menos disposición hacia el futuro inminente de la IA.

Cuando se les preguntó en la encuesta MITRE-Harris si el gobierno debería intervenir para regular la IA, el 85% de los encuestados estuvo a favor de la idea, un aumento del 3% con respecto a la última vez. El mismo 85% estuvo de acuerdo con la afirmación de que “hacer que la IA sea segura y confiable para uso público debe ser un esfuerzo nacional que involucre a la industria, el gobierno y la academia”, mientras que el 72% opinó que “el gobierno federal debería dedicar más tiempo y recursos a la investigación y desarrollo de seguridad de la IA”.

La amplia ansiedad sobre el uso de la IA para mejorar los ataques de malware es interesante. Recientemente hablamos con un grupo de expertos en ciberseguridad sobre este mismo tema, y el consenso parecía ser que si bien la IA podría ser utilizada en malware, no es una herramienta especialmente eficaz en este momento. Algunos expertos consideraban que su capacidad para escribir código de malware efectivo era deficiente, mientras que otros explicaban que los hackers probablemente encontrarían mejores vulnerabilidades en repositorios públicos que pidiendo ayuda a la IA.

No obstante, el escepticismo creciente hacia todo lo relacionado con la IA podría terminar dando forma a los esfuerzos de la industria y podría llevar a empresas como OpenAI a invertir más dinero en proteger al público de los productos que lanzan. Y con un apoyo tan abrumador, no sería sorprendente si los gobiernos comienzan a promulgar regulaciones de IA más temprano que tarde.