El presidente ejecutivo de OpenAI, la empresa detrás de ChatGPT, dijo este martes ante un panel del Senado de Estados Unidos que el uso de la inteligencia artificial para interferir en la integridad de las elecciones es un "área significativa de preocupación”, y añadió que es un espacio que necesita regulación.
En su primera intervención ante el Congreso, Altman sugirió que, en general, Estados Unidos debería considerar la posibilidad de establecer requisitos de licencias y pruebas para el desarrollo de modelos de inteligencia artificial.
En un testimonio escrito, Altman también abogó por requisitos de licencia o registro para la inteligencia artificial con determinadas capacidades. De ese modo, Estados Unidos podría exigir a las empresas el cumplimiento de normas de seguridad, por ejemplo, probando los sistemas antes de su lanzamiento y publicando los resultados.
“Creo que también necesitamos normas, directrices, sobre lo que se espera en términos de divulgación de una empresa que proporciona un modelo”.
Durante meses, empresas grandes y pequeñas se han apresurado a introducir en el mercado una inteligencia artificial cada vez más hábil, invirtiendo un sinfín de datos y miles de millones de dólares. Algunos críticos temen que la tecnología agrave los daños sociales, entre ellos los prejuicios y la desinformación, mientras que otros advierten que la inteligencia artificial podría acabar con la propia humanidad.
Medidas de eguridad para la inteligencia artificial
Un miembro del personal de OpenAI propuso recientemente la creación de una agencia estadounidense de concesión de licencias para la inteligencia artificial, que podría llamarse Oficina para la Seguridad de la Inteligencia Artificial y la Infraestructura, u OASIS (Office for AI Safety and Infrastructure Security).
OpenAI cuenta con el respaldo de Microsoft Corp MSFT.O. Altman también aboga por la cooperación mundial en materia de inteligencia artificial y por incentivos para el cumplimiento de las normas de seguridad.
A finales de marzo Elon Musk junto con un grupo de expertos en inteligencia artificial y ejecutivos del sector pidieron una pausa de seis meses en el entrenamiento de sistemas de inteligencia artificial por posibles riesgos para la sociedad y la humanidad.
La preocupación coincidió con la atención de los legisladores estadounidenses sobre ChatGTP por su posible impacto en la seguridad nacional y la educación. Mientras que Europol, la policía de la UE, ya había advertido sobre el posible uso indebido del sistema de inteligencia artificial en intentos de “phishing”, desinformación y ciberdelincuencia.
Por su parte, el Gobierno británico ha presentado varias propuestas para establecer un marco normativo “adaptable” en torno a la inteligencia artificial.