Los chatbots de IA están invadiendo tu gobierno local y haciendo que todos estén nerviosos
Los chatbots de IA están nerviosos invadiendo tu gobierno local.
La Agencia de Protección Ambiental de los Estados Unidos bloqueó el acceso de sus empleados a ChatGPT mientras que el personal del Departamento de Estado de los Estados Unidos en Guinea lo utilizó para redactar discursos y publicaciones en redes sociales.
Maine prohibió a sus empleados del poder ejecutivo el uso de inteligencia artificial generativa durante el resto del año debido a preocupaciones por la ciberseguridad del estado. En Vermont, cercano a Maine, los empleados del gobierno lo utilizan para aprender nuevos lenguajes de programación y escribir código interno, según Josiah Raiche, director de inteligencia artificial del estado.
La ciudad de San José, California, redactó 23 páginas de pautas sobre la inteligencia artificial generativa y requiere que los empleados municipales completen un formulario cada vez que utilicen una herramienta como ChatGPT, Bard o Midjourney. A menos de una hora en coche hacia el norte, el gobierno del condado de Alameda ha realizado sesiones para educar a los empleados sobre los riesgos de la inteligencia artificial generativa, como su propensión a proporcionar información convincente pero inexacta, pero aún no ve la necesidad de una política formal.
“Nos importa más lo que puedes hacer, no lo que no puedes hacer”, dice Sybil Gurney, subdirectora de información del condado de Alameda. El personal del condado está “realizando gran parte de su trabajo escrito utilizando ChatGPT”, agrega Gurney, y han utilizado Salesforce’s Einstein GPT para simular usuarios en pruebas de sistemas de TI.
En todos los niveles, los gobiernos están buscando formas de aprovechar la inteligencia artificial generativa. Los funcionarios estatales y municipales dijeron a ENBLE que creen que la tecnología puede mejorar algunas de las cualidades más molestas de la burocracia al agilizar el papeleo rutinario y mejorar la capacidad del público para acceder y comprender material gubernamental denso. Pero los gobiernos, sujetos a estrictas leyes de transparencia, elecciones y un sentido de responsabilidad cívica, también enfrentan un conjunto de desafíos distintos del sector privado.
- Conoce a la Roomba Combo j9+ y a la Roomba j9+, las nuevas aspirado...
- El X de Elon Musk está demandando a California. Aquí está el motivo.
- Los nuevos Roombas de iRobot, buques insignia de la marca, vienen c...
“A todos les importa la responsabilidad, pero se intensifica a un nivel diferente cuando eres literalmente el gobierno”, dice Jim Loter, director de tecnología interino de la ciudad de Seattle, que publicó pautas preliminares de inteligencia artificial generativa para sus empleados en abril. “Las decisiones que toma el gobierno pueden afectar a las personas de manera bastante profunda y… le debemos a nuestro público ser equitativos y responsables en las acciones que tomamos y abiertos sobre los métodos que informan las decisiones”.
Las consecuencias para los empleados del gobierno quedaron ilustradas el mes pasado cuando un superintendente adjunto en Mason City, Iowa, fue llevado a la atención nacional por usar ChatGPT como un paso inicial para determinar qué libros debían ser retirados de las bibliotecas del distrito porque contenían descripciones de actos sexuales. La eliminación de libros era requerida bajo una ley estatal recién promulgada.
Ese nivel de escrutinio de los funcionarios gubernamentales probablemente continuará. En sus políticas de inteligencia artificial generativa, las ciudades de San José y Seattle y el estado de Washington han advertido a su personal que cualquier información ingresada como estímulo en una herramienta de inteligencia artificial generativa automáticamente queda sujeta a divulgación según las leyes de registros públicos.
Esa información también se ingiere automáticamente en las bases de datos corporativas utilizadas para entrenar herramientas de inteligencia artificial generativa y potencialmente puede ser devuelta a otra persona que utilice un modelo entrenado con el mismo conjunto de datos. De hecho, un estudio amplio del Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford publicado en noviembre pasado sugiere que cuanto más precisos sean los modelos de lenguaje grandes, más propensos son a regurgitar bloques enteros de contenido de sus conjuntos de datos de entrenamiento.
Eso es un desafío particular para las agencias de atención médica y justicia penal.
Loter dice que los empleados de Seattle han considerado usar inteligencia artificial generativa para resumir informes de investigación extensos de la Oficina de Responsabilidad Policial de la ciudad. Esos informes pueden contener información que es pública pero aún confidencial.
El personal del Tribunal Superior del Condado de Maricopa en Arizona utiliza herramientas de inteligencia artificial generativa para escribir código interno y generar plantillas de documentos. Aún no lo han utilizado para comunicaciones dirigidas al público, pero creen que tiene el potencial de hacer que los documentos legales sean más comprensibles para los no abogados, dice Aaron Judy, jefe de innovación y AI del tribunal. En teoría, el personal podría ingresar información pública sobre un caso judicial en una herramienta de inteligencia artificial generativa para crear un comunicado de prensa sin violar ninguna política del tribunal, pero, dice, “probablemente estarían nerviosos”.
“Estás utilizando la opinión de los ciudadanos para entrenar el motor de dinero de una entidad privada para que puedan ganar más dinero”, dice Judy. “No estoy diciendo que eso sea malo, pero todos tenemos que sentirnos cómodos al final del día diciendo: ‘Sí, eso es lo que estamos haciendo'”.
Según las pautas de San José, no está prohibido usar inteligencia artificial generativa para crear un documento para consumo público, pero se considera “alto riesgo” debido al potencial de la tecnología para introducir información errónea y porque la ciudad es precisa en la forma en que se comunica. Por ejemplo, un modelo de lenguaje grande al que se le pida que escriba un comunicado de prensa podría usar la palabra “ciudadanos” para describir a las personas que viven en San José, pero la ciudad solo usa la palabra “residentes” en sus comunicaciones porque no todos en la ciudad son ciudadanos estadounidenses.
Empresas de tecnología cívica como Zencity han añadido herramientas de inteligencia artificial generativa para escribir comunicados de prensa gubernamentales a su línea de productos, mientras que los gigantes tecnológicos y las principales consultorías, incluyendo Microsoft, Google, Deloitte y Accenture, están presentando una variedad de productos de inteligencia artificial generativa a nivel federal.
Las primeras políticas gubernamentales sobre inteligencia artificial generativa han surgido de ciudades y estados, y los autores de varias de esas políticas le dijeron a ENBLE que están ansiosos por aprender de otras agencias y mejorar sus estándares. Alexandra Reeve Givens, presidenta y directora ejecutiva del Centro para la Democracia y la Tecnología, dice que la situación está lista para un “liderazgo claro” y “orientación específica y detallada del gobierno federal”.
La Oficina de Administración y Presupuesto federal tiene previsto publicar su guía preliminar para el uso de inteligencia artificial por parte del gobierno federal este verano.
La primera ola de políticas de inteligencia artificial generativa publicadas por agencias estatales y municipales son medidas provisionales que los funcionarios dicen que se evaluarán en los próximos meses y se ampliarán. Todas prohíben a los empleados utilizar información sensible y no pública en las indicaciones y requieren algún nivel de verificación y revisión humana del trabajo generado por la inteligencia artificial, pero también hay diferencias notables.
Por ejemplo, las pautas en San José, Seattle, Boston y el estado de Washington requieren que los empleados revelen su uso de inteligencia artificial generativa en su producto de trabajo, mientras que las pautas de Kansas no lo hacen.
Albert Gehami, oficial de privacidad de San José, dice que las reglas en su ciudad y en otras evolucionarán significativamente en los próximos meses a medida que los casos de uso se vuelvan más claros y los servidores públicos descubran las formas en que la inteligencia artificial generativa es diferente de las tecnologías ya ubicuas.
“Cuando trabajas con Google, escribes algo y obtienes una pared de diferentes puntos de vista, y hemos tenido 20 años de prueba y error básicamente para aprender cómo usar esa responsabilidad”, dice Gehami. “Veinte años después, probablemente lo habremos descubierto con la inteligencia artificial generativa, pero no quiero que nuestra ciudad se equivoque durante 20 años para descubrirlo”.