-Anuncio-
domingo, marzo 1, 2026

Científicos plantean una medida extrema para regular la inteligencia artificial

Noticias México

‘México siempre va a abogar por la paz mundial’, asegura Sheinbaum sobre conflicto entre EEUU e Irán

Desde Comondú, la presidenta Claudia Sheinbaum expresó la postura de México frente al aumento de la tensión en Medio Oriente, tras los ataques militares lanzados por Israel y Estados Unidos contra Irán.

¿Listo para mirar al cielo? Estos son los eventos astronómicos de marzo 2026

Marzo de 2026 traerá a México un eclipse total de Luna, conjunciones planetarias, lluvia de meteoros y el equinoccio de primavera. Consulta fechas y horarios clave para observar los fenómenos astronómicos.

Esto dice el acta de defunción sobre la muerte de ‘El Mencho’ en Jalisco

El acta de defunción de Nemesio Oseguera Cervantes, alias “El Mencho”, detalla que murió por múltiples heridas de arma de fuego; la FGR confirmó la entrega del cuerpo a sus familiares tras pruebas genéticas.
-Anuncio-
- Advertisement -

Un nuevo estudio de la Universidad de Cambridge cree que la forma más efectiva para regular la Inteligencia Artificial (AI) está en el control de una pieza clave: los chips.

En el análisis, publicado esta semana, participan expertos de otras universidades, como Harvard y Oxford, y algunos especialistas de OpenAI, la creadora de ChatGPT. 

El grupo propone medidas que van desde el control de la distribución de los chips, hasta la posibilidad de crear un interruptor para suspender de manera remota estos dispositivos.

“La computación relevante para la inteligencia artificial es un punto de intervención particularmente eficaz: es detectable, excluible y cuantificable, y se produce a través de una cadena de suministro extremadamente concentrada”, dicen los expertos en el informe. 

Esto, en contraposición con la complejidad de intentar regular los resultados de los desarrollos, como los algoritmos o los modelos entrenados. 

“Son bienes intangibles, no rivales y fácilmente compartibles, los que los hacen intrínsecamente difíciles de controlar”.

El análisis resalta que, en estos momentos, los chips avanzados que se utilizan para entrenar los sistemas de inteligencia artificial son fabricados por un grupo muy reducido de actores.

 Nvidia, por ejemplo, controla casi el 90 % de este mercado. 

“Esto permite a los responsables políticos restringir la venta de estos productos a personas o países de interés”.

Los expertos propusieron medidas prácticas, como implementar un registro global para las ventas de chips de inteligencia artificial. 

La medida permitiría rastrear en estas piezas a lo largo de su ciclo de vida en cualquier parte del mundo. 

Para un registro como este, los investigadores plantean la incorporación de un identificador único para cada chip, así se evitaría, por ejemplo, el tráfico ilegal.

Medidas como estas aumentarían la visibilidad y comprensión de los responsables de formular políticas sobre los desarrollos de la inteligencia artificial. 

Los especialistas resaltan que la visibilidad es crucial, porque permitirá a los gobiernos “anticipar problemas, tomar decisiones más precisas, rastrear resultados dentro de un país y negociar e implementar acuerdos entre países”.

En Estados Unidos (EEUU), un estudio expone como ejemplo la medida dictada por  Joe Biden el año pasado para identificar todas las empresas que están desarrollando modelos grandes de inteligencia artificial. 

O la postura del Departamento de Comercio de este país, que ha reforzado las limitaciones para la venta de aceleradores a China.

El botón para suspender de manera remota los chips es planteado como una medida extrema. 

Dicen que se podrían incorporar interruptores de apagado en el silicio para evitar su uso en aplicaciones maliciosas. 

Esto ayudaría a los reguladores a accionar rápido en caso de que identifiquen algún uso peligroso.

Advierten, sin embargo, que no es una solución perfecta. 

Un interruptor de este tipo podría ser blanco de ciberdelincuentes y aprovecharse para usos abusivos de la inteligencia artificial.

Pruebas de entrenamiento

El análisis también platea la posibilidad de que varias partes coordinen esfuerzos para aprobar tareas de entrenamiento en sistemas de inteligencia artificial potencialmente riesgosos. 

“Las armas nucleares utilizan mecanismos similares llamados enlaces de acción permisivos”, explica el reporte.

Durante la Cumbre sobre Seguridad de la Inteligencia Artificial, celebrada en noviembre en Reino Unido, una veintena de gobiernos y los principales desarrolladores se comprometieron a trabajar juntos en futuras pruebas para sus modelos. 

Representantes de OpenAI, Anthropic, Google, Microsoft, Meta y xAI participaron de las sesiones en las que se discutió la propuesta.

En esta cumbre, se anunció la creación de un nuevo centro global de pruebas con sede en el Reino Unido.

 El gobierno británico adelantó que se pondría especial atención en los peligros de la inteligencia artificial para la seguridad nacional y la sociedad.

Información de Hipertextual

- Advertisement -
-Anuncio-
-Anuncio-

Lo más visto

Hackers filtran información de más de 4 mil empleados del Ayuntamiento de Hermosillo

Hermosillo, Sonora.- Diversa información personal de más de 4 mil 600 trabajadores del Ayuntamiento de Hermosillo fue filtrada...

Hombre muere tras sufrir presunto infarto afuera de comercio en Hermosillo

Un hombre de alrededor de 50 años murió tras sufrir un presunto infarto afuera de un comercio en la colonia Camino Real, en Hermosillo;

La verdad de por qué hace calor este invierno en Hermosillo; en 8 años ya no sería habitable

Hermosillo, Sonora.- Febrero y Hermosillo ya roza los 38.5 grados. La Navidad fue cálida y el invierno prácticamente no...

Esto dice el acta de defunción sobre la muerte de ‘El Mencho’ en Jalisco

El acta de defunción de Nemesio Oseguera Cervantes, alias “El Mencho”, detalla que murió por múltiples heridas de arma de fuego; la FGR confirmó la entrega del cuerpo a sus familiares tras pruebas genéticas.

Mujer muere en horno de panadería en Halifax; autoridades descartan fallas de seguridad

El Departamento de Trabajo de Nueva Escocia concluyó que no hubo violaciones de seguridad en la muerte de una joven de 19 años hallada dentro de un horno en una panadería de Halifax.
-Anuncio-