Home Negocio La próxima ola de IA está aquí: los agentes autónomos de IA...

La próxima ola de IA está aquí: los agentes autónomos de IA son increíbles y aterradores

4
0

La bomba implacable alrededor de la IA dificulta separar la señal del ruido. Por lo tanto, es comprensible si ha sintonizado la reciente charla sobre los agentes autónomos de IA. Un consejo: no lo hagas. La importancia de la IA agente en realidad puede exceder la exageración.

Un agente de IA autónomo puede interactuar con el medio ambiente, tomar decisiones, tomar medidas y aprender del proceso. Esto representa un cambio sísmico en el uso de la IA y, en consecuencia, presenta las oportunidades correspondientes y los riesgos.

El P en GPT

Hasta la fecha, las herramientas generativas de IA, en gran medida sujetas a la supervisión humana, han sido diseñadas para funcionar en el estado previo (el PAG en GPT) en grandes cantidades de datos, como modelos de idiomas grandes (LLM) u otras fuentes de datos definidas y luego para proporcionar respuestas a entradas o indicaciones (una pregunta o instrucción) proporcionadas por los usuarios. Esta ha demostrado ser una forma impresionante de encontrar respuestas humanas a consultas o indicaciones, como un bebé imitando sonidos o palabras sin saber realmente lo que está diciendo. Un poco adorable, pero poco probable que conjure el Principia de Newton o una sinfonía de Beethoven. Entonces, ¿estas herramientas generativas funcionan realmente como seres creativos e independientes? Dudoso. Pero eso puede estar cambiando dramáticamente.

Un nuevo enfoque permite que la IA interactúe directa y más autónoma con los datos y reaccione de manera dinámica, muy parecida a lo que hacen los humanos. Esta tecnología se basa en agentes autónomos de IA, Lo que Bill Gates cree que volcarán la industria del software, provocando la mayor revolución en la informática, ya que pasamos de escribir comandos a aprovechar los íconos. Y eso puede ser un eufemismo.

Agentes de IA

Los agentes de IA están diseñados para tomar decisiones sin intervención humana para realizar tareas predefinidas (por ahora). Pueden llegar al mundo exterior, encontrar datos que no habían encontrado previamente, analizarlos, luego tomar medidas, mucho más como la interacción humana con el medio ambiente y menos como confiar en el universo de datos fijos de un programa de ajedrez o un chatbot y un LLM que no puede ir más allá de su conocimiento previamente. Suena genial. ¿Qué podría salir mal?

Este es un gran paso adelante, reemplazando un enfoque estadístico inteligente para replicar la expresión humana con algo capaz de asumir estímulos externos previamente desconocidos, procesarlo y tomar medidas sin tener que ser provocados o entretenidos. Estamos eliminando nuestro papel intermedio creando y gobernando el universo conceptual y de toma de decisiones de la IA.

Ese es tanto el punto como el problema. Es justo decir que el bebé AI no está en camino de dar unos pasos; Podría estar acelerando por la carretera en su nuevo automóvil, música a todo volumen, tragando una botella de tequila.

La ventaja es clara. Menos necesidad de capacitación y supervisión específicas. La escalabilidad solo está limitada por los recursos de cálculo. Puede eliminar el intermediario humano y enviar agentes para ir y completar grandes cantidades de tareas por su cuenta. Después de todo, son agentestienen agencia—La capacidad de tomar decisiones y decisiones. Y errores.

¿Qué podría salir mal?

Como software en lugar de un actor humano, los errores del agente de IA se pueden agravar, replicar y replicar de manera instantánea e infinitamente. También es un objetivo para los piratas informáticos. Hay escenarios obvios del día del juicio final como un agente de IA pícaro que desencadena incorrectamente una ola masiva de valores que negocian o lanzaron involuntariamente una represalia militar. Cuando se trata de decisiones con consecuencias potencialmente catastróficas, la supervisión humana no es perfecta, pero la mayoría de nosotros sentimos al menos un mínimo de consuelo sabiendo que hay una mano humana experta que flota sobre el ir botón.

Hay efectos menos dramáticos pero aún muy impactantes en la esfera legal y de cumplimiento que plantean un riesgo comercial significativo. Cada vez más empresas están utilizando herramientas basadas en IA en todo el ciclo de vida de los empleados, desde seleccionar candidatos hasta entrevistas, contratación y continuar a través de la evaluación del desempeño (aumentos, promociones y terminación). Estas herramientas están implementando cada vez más agentes de IA. Los proveedores a menudo promocionan a los agentes de IA como apoyar y mejorar la calidad de las decisiones críticas de recursos humanos. Pero los errores sutiles en el diseño o implementación del sistema podrían conducir a resultados injustos. Hay un nombre para este fenómeno: sesgo algorítmico. Al mismo tiempo, los estados están adoptando leyes que penalizan tanto a los desarrolladores como a los usuarios de tales herramientas si su uso resulta en un tratamiento injusto de los empleados. Y, naturalmente, es probable que siga el litigio.

Negocio arriesgado

Es innegable que los agentes de IA presenten una oportunidad significativa para aumentar la productividad mediante la automatización de tareas rutinarias y liberando a las personas para obtener más creatividad y resolución de problemas. Pero los riesgos son igual de innegables.

Si bien la supervisión y la supervisión de la supervisión pueden ser una necesidad con los niños en cierto punto, la metáfora solo llega tan lejos cuando se trata de la emancipación de la IA a través de agentes autónomos. Por ahora, a medida que eliminamos alegremente las ruedas de entrenamiento, debemos tener en cuenta nuestro entusiasmo comprensible con una precaución razonable para evitar cualquier accidente catastrófico.

LEAVE A REPLY

Please enter your comment!
Please enter your name here