Home Negocio Cuando se trata de IA, la innovación no es suficiente

Cuando se trata de IA, la innovación no es suficiente

11
0

El panorama de la IA está evolucionando rápidamente, con el proyecto Stargate de $ 500 mil millones de Estados Unidos que indica una inversión masiva de infraestructura, mientras que el Speek de China surge como un competidor formidable. Los modelos AI avanzados de Deepseek, rivalizan con capacidades occidentales a costos más bajos, plantean preocupaciones significativas sobre las posibles amenazas de ciberseguridad, la minería de datos y la recopilación de inteligencia a escala global. Este desarrollo destaca la necesidad urgente de una regulación sólida de IA y medidas de seguridad en los EE. UU.

A medida que la raza de IA se intensifica, la brecha entre el avance tecnológico y la gobernanza se amplía. Estados Unidos enfrenta el desafío crítico de no solo acelerar sus capacidades de IA a través de proyectos como Stargate, sino también desarrollar marcos regulatorios integrales para proteger sus activos digitales e intereses de seguridad nacional. Con el potencial de Deepseek para superar los controles de exportación y realizar operaciones cibernéticas sofisticadas, Estados Unidos debe actuar rápidamente para garantizar que sus innovaciones de IA sigan siendo seguras y competitivas en este panorama tecnológico que cambia rápidamente.

Ya hemos visto la primera ola de peligros con IA. Deepfakes, relatos de bot y manipulación algorítmica en las redes sociales han ayudado a socavar la cohesión social al tiempo que contribuyen a la creación de cámaras políticas de eco. Pero estos peligros son el juego del niño en comparación con los riesgos que surgirán en los próximos cinco a diez años.

Durante la pandemia, vimos la velocidad incomparable con la que se podían desarrollar nuevas vacunas con la ayuda de la IA. Como ha argumentado Mustafa Suleyman, fundador de Deepmind y ahora CEO de Microsoft AI, no pasará mucho tiempo antes de que AI pueda diseñar nuevas capas biológicas con igual velocidad. Y estas capacidades no se limitarán a los actores estatales. Al igual que la tecnología de drones moderna ha democratizado recientemente el acceso a las capacidades que alguna vez fueron la única provincia de los militares, cualquier individuo incluso un conocimiento rudimentario de la codificación pronto podrá armarse AI desde su habitación en casa.

El hecho de que los senadores estadounidenses abogaran públicamente por la reducción de los sistemas de aeronaves no tripulados, a pesar de la falta de una base legal para hacerlo, es una señal clara de una falla sistémica de control. Este fracaso es aún más preocupante que los avistamientos de drones. Cuando la confianza en la capacidad del gobierno para manejar eventos tan inesperados colapsa, el resultado es el miedo, la confusión y el pensamiento conspirador. Pero hay mucho peor por venir si no encontramos nuevas formas de regular nuevas tecnologías. Si cree que el desglose sistémico en respuesta a los avistamientos de drones es preocupante, imagine cómo se verán las cosas cuando la IA comience a causar problemas.

Siete años dedicados a ayudar a los departamentos de defensa y seguridad nacional con innovación y transformación (tanto organizacional como digital) me han dado forma a mi pensamiento sobre los riesgos geopolíticos muy reales que la IA y las tecnologías digitales traen consigo. Pero estos peligros no vienen solo de fuera de nuestro país. La última década ha visto una tolerancia creciente entre muchos ciudadanos estadounidenses para la idea de violencia política, un fenómeno que se ha aliviado particularmente vívido a raíz del tiroteo del CEO de United Healthcare, Brian Thompson. A medida que la automatización reemplaza un número cada vez mayor de trabajos, es completamente posible que una ola de desempleo masivo conduzca a disturbios graves, multiplicando el riesgo de que la IA se use como arma para arremeter contra la sociedad en general.

Estos peligros estarán en nuestras puertas pronto. Pero aún más preocupantes son las incógnitas desconocidas. La IA se está desarrollando a la velocidad del rayo, e incluso aquellos responsables de ese desarrollo no tienen idea exactamente de dónde terminaremos. El premio Nobel Geoffrey Hinton, el llamado padrino de IA, ha dicho que existe una posibilidad significativa de que la inteligencia artificial elimine a la humanidad en solo 30 años. Otros sugieren que el horizonte del tiempo es mucho más estrecho. El simple hecho de que hay tanta incertidumbre sobre la dirección del viaje debería preocuparnos profundamente a todos. Cualquiera que al menos no esté preocupado simplemente no ha pensado lo suficiente sobre los peligros.

"La regulación regimentada debe estar basada en el riesgo"

No podemos permitirnos tratar la regulación de la IA de la misma manera casual que se ha aplicado a la tecnología de drones. Necesitamos un enfoque adaptable, de largo alcance y orientado al futuro para la regulación que esté diseñado para protegernos de lo que pueda surgir mientras retrocedemos las fronteras de la inteligencia de la máquina.

Durante una entrevista reciente con el senador Richard Blumenthal, discutí la cuestión de cómo podemos regular efectivamente una tecnología que aún no entendemos completamente. Blumenthal es el coautor del senador Josh Hawley del marco bipartidista para la Ley de AI de EE. UU., También conocida como el marco Blumenthal-Hawley.

Blumenthal propone un enfoque relativamente ligero, lo que sugiere que la forma en que el gobierno de los Estados Unidos regula la industria farmacéutica puede servir como modelo para nuestro enfoque para la IA. Este enfoque, argumenta, proporciona licencias estrictas y supervisión de tecnologías emergentes potencialmente peligrosas sin imponer restricciones indebidas a la capacidad de las empresas estadounidenses para seguir siendo líderes mundiales en el campo. "No queremos sofocar la innovación", dice Blumenthal. “Es por eso que la regulación regimentada tiene que estar basada en el riesgo. Si no representa un riesgo, no necesitamos un regulador ".

Este enfoque ofrece un valioso punto de partida para la discusión, pero creo que debemos ir más allá. Si bien un modelo farmacéutico puede ser suficiente para regular el desarrollo de la IA corporativa, también necesitamos un marco que limite los riesgos planteados por las personas. La fabricación y distribución de productos farmacéuticos requiere una infraestructura significativa, pero el código de computadora es una bestia completamente diferente que puede replicarse sin fin y transmitirse en cualquier parte del planeta en una fracción de segundo. La posibilidad de que la IA problemática se cree y se filtre a la naturaleza es simplemente mucho más alta que el caso de las drogas nuevas y peligrosas.

Dado el potencial de la IA para generar resultados a nivel de extinción, no es demasiado largo decir que los marcos regulatorios que rodean las armas nucleares y la energía nuclear son más apropiados para esta tecnología que los que se aplican en la industria farmacéutica.

El anuncio del proyecto Stargate agrega una urgencia particular a esta discusión. Si bien la inversión masiva del sector privado en infraestructura de IA es crucial para mantener el liderazgo tecnológico estadounidense, también acelera el cronograma para desarrollar marcos regulatorios integrales. No podemos permitirnos que nuestras respuestas regulatorias retrasen años detrás de los desarrollos tecnológicos cuando esos desarrollos se miden en cientos de miles de millones de dólares.

Sin embargo, elegimos equilibrar los riesgos y las recompensas de la investigación de IA, debemos actuar pronto. Como vimos con los avistamientos de drones que tuvieron lugar antes de Navidad, la falta de un marco integral y cohesivo para manejar las amenazas de las nuevas tecnologías puede dejar a las agencias gubernamentales paralizadas. Y con riesgos que asumen algo hasta la extinción de la humanidad, no podemos permitirnos este tipo de inercia y confusión. Necesitamos un marco regulatorio integral que equilibre la innovación con la seguridad, uno que reconoce tanto el potencial transformador de la IA como sus peligros existenciales.

Eso significa:

  • Promoviendo la innovación responsable. Fomentar el desarrollo y el despliegue de tecnologías de IA en sectores críticos de manera segura y ética.
  • Establecer regulaciones sólidas. La confianza pública en los sistemas de IA requiere marcos regulatorios claros y exigibles y sistemas de responsabilidad transparentes.
  • Fortalecer la seguridad nacional. Los formuladores de políticas deben aprovechar la IA para modernizar las capacidades militares, desplegar soluciones de IA que predicen, detecten y contrarresten las amenazas cibernéticas al tiempo que garantizan el uso ético de los sistemas autónomos.
  • Invertir en el desarrollo de la fuerza laboral. Como nación, debemos establecer programas de capacitación integrales que mejoren a los trabajadores para las industrias impulsadas por la IA al tiempo que mejoran la educación STEM (ciencia, tecnología, ingeniería y matemáticas) para construir experiencia fundamental de IA entre estudiantes y profesionales.
  • Liderando en estándares globales de IA. Estados Unidos debe encabezar los esfuerzos para establecer normas globales para el uso de la IA mediante la asociación con aliados para definir los estándares éticos y salvaguardar la propiedad intelectual.
  • Abordar las preocupaciones públicas. Asegurar la confianza pública en la IA requiere un aumento de la transparencia sobre los objetivos y aplicaciones de las iniciativas de IA al tiempo que desarrolla estrategias para mitigar el desplazamiento laboral y garantizar beneficios económicos equitativos.

La inversión de Stargate representa tanto la promesa como el desafío del desarrollo de la IA. Si bien demuestra el potencial de Estados Unidos para liderar la próxima revolución tecnológica, también destaca la necesidad urgente de marcos regulatorios que pueden igualar el ritmo y la escala de la innovación. Con las inversiones de esta magnitud que remodelan nuestro paisaje tecnológico, no podemos darnos el lujo de equivocarse. Es posible que no tengamos una segunda oportunidad.

LEAVE A REPLY

Please enter your comment!
Please enter your name here