En un entorno en el que la implementación de la IA sigue avanzando, el alcance de los agentes de IA todavía es limitado. ¿Qué desafíos implica promoverlos y cómo se pueden enfrentar?
Interactuar con chatbots se ha vuelto algo cada vez más común, pero también limitante. Los usuarios todavía necesitan contactar a ejecutivos para resolver problemas concretos. Pero, ¿Qué pasaría si la tecnología fuese más allá y ante cualquier requerimiento entregase información de manera proactiva? Esa es justamente la diferencia entre un chatbot y un agente de IA. Mientras los primeros se enfocan en datos generales, los segundos son programas que utilizan la tecnología para realizar tareas más complejas y ejecutar acciones que permitan ofrecer una experiencia más personalizada y proactiva, una donde la autonomía juega un rol clave. Es como comparar a un recepcionista que sigue un guion preestablecido con un gerente que toma decisiones estratégicas.
También le puede interesar: Por qué el CISO de Google Cloud es optimista a largo plazo sobre la ciberseguridad
En Silicon Valley, cuna de la vanguardia tecnológica a nivel mundial, ya es evidente el impacto de los agentes de IA en la interacción de las personas y a un nivel macro, en el desarrollo de industrias del área de la salud, el retail, la energía, las finanzas y muchas otras. Según Emergen Research, se estima que el tamaño del mercado de agentes de IA alcanzará los 30,89 mil millones de dólares en 2033, con una tasa de crecimiento anual compuesta del 31,68%. Y, por otro lado, un informe de Bloomberg Intelligence proyecta que el mercado de la IA generativa está en camino de explotar, pasando de los 40 mil millones de dólares en 2022 a 1,3 trillones de dólares en 2032.
Algunos ejemplos concretos de uso: en la empresa biotecnológica 1910 Genetics, un agente combina biología y química computacional para acelerar el descubrimiento de fármacos con una precisión que los humanos no pueden igualar. En el holding Tapestry, otro agente optimiza redes eléctricas globales, ayudando a enfrentar la crisis climática al gestionar datos e infraestructura de manera autónoma. En Estados Unidos, existe un hospital que delega la codificación médica en Arintra, un agente que automatiza procesos complejos, ahorrando tiempo y dinero mientras reduce errores. Y un fondo de inversión gestionado por Linvest21, donde la IA no solo analiza datos, toma decisiones financieras más rápido y con menos sesgos que un equipo humano. Estos casos demuestran que la inteligencia artificial no entrega simples asistentes, sino que fuerzas motrices que moldean nuestra realidad.
Ante esta gran revolución, vale la pena preguntarse por qué el alcance de los agentes de IA todavía es limitado y por qué -pese a sus múltiples ventajas-, aún se los ve como una curiosidad tecnológica que no logra masificarse. Creo que el desafío hoy no es técnico sino cultural. Las personas estamos acostumbradas a tener el control, pero los agentes operan en un nivel diferente. Nos exigen confianza, un salto de fe que incluso puede resultar incómodo. La interrogante de fondo es: ¿estamos dispuestos a confiar en la tecnología para tareas que antes considerábamos exclusivamente humanas?
Este gran dilema puede resolverse desde el punto de vista de la ética, asegurándonos de regular el uso de la IA para mitigar sesgos en los programas y garantizar la transparencia en sectores críticos como la salud y las finanzas, promoviendo que los agentes de IA trabajen para nosotros y no contra nosotros. Debemos diseñar y poner en práctica sistemas eficientes y, al mismo tiempo, justos. La ética tiene que estar en el centro del debate y por encima de los temores sobre “¿Qué pasaría si…?”, porque el verdadero peligro que enfrentan las empresas y la sociedad en el mundo actual no es la falta de regulación, sino la inacción. Si nos quedamos atrás del avance tecnológico y sus infinitas posibilidades, otros países y otros mercados tomarán la posta.
Para implementar estas regulaciones, es fundamental establecer marcos legales y éticos claros que contemplen la responsabilidad de las empresas desarrolladoras, así como auditorías a los sistemas de inteligencia artificial. Esto implica crear organismos reguladores especializados que supervisen el diseño, entrenamiento y funcionamiento de los algoritmos, asegurando que cumplan con estándares de transparencia y equidad. En el sector de la salud, por ejemplo, garantizar la imparcialidad en diagnósticos y tratamientos automatizados puede salvar vidas al evitar discriminaciones basadas en datos sesgados. En las finanzas, un monitoreo riguroso puede prevenir prácticas que aumenten las desigualdades económicas, como la mayor dificultad de acceder a créditos según género u origen. Además, sería crucial incluir en estos marcos la participación de expertos interdisciplinarios y la consulta a las comunidades afectadas, promoviendo que estas tecnologías sirvan como herramientas inclusivas y confiables, en lugar de perpetuar discriminaciones preexistentes.
No se pierda: Siete desafíos para las empresas en protección de datos este 2025
Al final del día, la pregunta que hay que hacernos no es si los agentes de IA pueden hacerlo mejor; es si estamos preparados para aceptar que pueden hacerlo mejor. En materia de transformación digital, el cambio se expresa en tres ejes: estructura, modelo de negocio y talento. Desde el momento en que interactuamos con nuestro primer smartphone, las personas nos convertimos sin vuelta atrás en seres digitales. Retrasar o negar el potencial de los agentes de IA significa una pérdida de valor estratégico significativo para los gobiernos y para las empresas, algo que en los tiempos actuales, sería un gran error dejar pasar. Es fundamental que la estrategia de transición considere un enfoque integral que equilibre la innovación con la protección de los derechos. Lo que más se requiere actualmente es visión, colaboración y una clara alineación de los objetivos a corto y largo plazo.
*La autora es socia y CEO de Singularity Chile
