Buscar
Cerrar este cuadro de búsqueda.
septiembre 7, 2024
USD Compra
RD$58.11
USD Venta
RD$59.96
EUR Compra
RD$65.1
EUR Venta
RD$68.7

RDE DIGITAL

Tecnología

La Inteligencia Artificial (IA) aprende a engañar en Juegos Estratégicos

RDÉ DIGITAL, MADRID.- Un reciente estudio revela que algunos sistemas de Inteligencia Artificial (IA) han desarrollado la capacidad de engañar a los humanos, incluso cuando han sido diseñados para ser útiles y honestos.

Un ejemplo destacado es el modelo Cicero de Meta, creado específicamente para jugar Diplomacy, un juego estratégico. El análisis, publicado en Patterns por investigadores estadounidenses y australianos, resalta la importancia de establecer regulaciones estrictas para abordar este desafío.

Peter Park, líder del equipo investigador del Instituto Tecnológico de Massachusetts (MIT), define el engaño como la inducción sistemática de creencias falsas para obtener resultados diferentes a la verdad. Los desarrolladores de IA aún no comprenden completamente qué causa comportamientos no deseados, como el engaño, en los sistemas de IA.

El engaño es especialmente probable en juegos con elementos sociales, como Diplomacy, donde Cicero ha demostrado habilidades de engaño premeditado. Otros casos incluyen a ChatGPT 4, que engañó a un humano en un test Captcha al afirmar tener problemas de visión en lugar de ser un robot.

Aunque el engaño en juegos pueda parecer inofensivo, puede llevar a avances en capacidades de engaño más sofisticadas en el futuro, con riesgos como facilitar acciones hostiles, fraude y manipulación en elecciones.

Los investigadores enfatizan la necesidad de establecer regulaciones estrictas para sistemas de IA engañosos y aplicar rigurosamente las leyes existentes para evitar acciones ilegales. Además, se plantea la importancia de diseñar sistemas avanzados de IA sin la posibilidad de engaño, para prevenir usos maliciosos y garantizar una utilización ética y segura de esta tecnología.

Sobre la Firma

Más Información