Todos los Derechos reservados © 2004 - 2022, Forbes Chile

Editor's pick

En las entrañas de la IA: ¿Qué tan inteligente y qué tan artificial puede ser?

Luces y sombras sobre una tecnología emergente que tiene admirado y en alerta al mundo

Publicado

on

En las entrañas de la IA: ¿Qué tan inteligente y qué tan artificial puede ser?

Imagine que usted es un abogado o abogada y tiene tres horas para interponer un recurso jurídico que recibió a última hora. Lo cierto es que, entre todas las herramientas que tiene a la mano como profesional, ninguna le puede garantizar una manera lo suficientemente útil para resolver un caso concreto con una metodología específica en tan poco tiempo… Excepto una que le podría ayudar a contestar su requerimiento en media hora.

Tal fue el caso de una de las monitoras del exrector de la Universidad de la Sabana (Colombia), Obdulio Velásquez, que ahora es profesor de la facultad de Derecho y Ciencia Política de la misma casa de estudios, al utilizar ChatGPT como herramienta de apoyo para su trabajo. El académico admitió en diálogo con FORBES que ha estado empleando la inteligencia artificial en diversos experimentos dentro de sus clases.

LEA TAMBIÉN: ChatGPT no proveerá atención médica pero le puede ahorrar mucho tiempo a los médicos

Uno de los más recientes tuvo lugar a inicios de diciembre, cuando calificó un trabajo de sus estudiantes de posgrado en las materias de Obligaciones y Responsabilidad Civil para el que tuvieron una semana. Días después, decidió hacerle las mismas preguntas a la inteligencia artificial (IA) y encontró que era capaz de obtener una nota de 4,5 sobre 5 al enfrentarse a cuestiones más o menos técnicas sobre el derecho norteamericano y anglosajón. Si bien fue capaz de contestar con respuestas muy bien redactadas, algunas de ellas fueron ambiguas y otras equivocadas.

Publicidad

Por eso es que vale la pena preguntarse qué tan inteligente es o puede ser la inteligencia artificial.

“Otra cosa que hago es que expongo mi clase y al final le hago unas preguntas de conceptos básicos. Algunas me las desarrolla más o menos bien, pero con errores (…) No quiero que mis estudiantes le cojan miedo, y no debe haber pánico para que la utilicen. Hay que replantearse modos de elaborar”, dijo Velásquez.

Hay que admitir que el pasado 30 de noviembre, momento exacto en que se liberó ChatGPT, el mundo supo casi de inmediato que iba a ser un modo disruptivo del uso del internet, incluso sin alcanzar la totalidad de su potencial. El concepto de IA como la conocemos hasta ahora puede ser todavía más amplio en el futuro si se tiene en cuenta la rapidez con la que se está adoptando actualmente.

“En cinco días llegó a un millón de usuarios, y en dos meses ya van casi 100 millones de usuarios. Creo que es el servicio de adopción más rápida hasta ahora y aquí yo creo que hay dos temas: la facilidad del consumo y el cambio de paradigma para las empresas”, comentó a FORBES Christopher Weisz, Managing Director & Partner de BCG X, la unidad de diseño y construcción de tecnología de esta firma de consultoría.

El primer punto tiene que ver con que no hace falta ser una persona técnica para utilizarla, pero sí se requiere saber cómo plantear las preguntas y llevar la conversación para llegar a un resultado esperado. Con respecto al segundo, el cambio de paradigma permitió bajar las barreras de entrada a las empresas, ya que no se requiere una infraestructura de analítica hiperavanzada, sino que basta con tener “datos, talento e infraestructura”.

Innovación y disrupción

Para las personas de negocios, una primera aclaración es evidente: la estrategia como tal no es IA. Al menos así lo analiza el fundador y CEO de Solve Next, Greg Galle, quien considera que la clave está en asegurarse de que haya un alineamiento a nivel de liderazgo de junta directiva donde se vea el potencial de la analítica avanzada para llevar a cabo una estrategia puntual.

Publicidad

“Ahí es donde hay un trabajo importante de identificar cuáles son las áreas donde la inteligencia artificial puede generar un mayor valor, priorizar esos casos de uso y asegurar que hay un fondeo para justamente poder desarrollarlos, y no es un ejercicio solamente del equipo técnico”, detalló el directivo de la compañía lider en innovación de Silicon Valley en diálogo con FORBES

Entrar en ese detalle hace que el mundo de la IA se parta en dos: lo angosto y lo general. Lo primero se muestra en que el tema se permea mucho más en las organizaciones: desarrollar IA para una tarea específica en un negocio, impactando la cadena de valor y la personalización de su oferta; para ello se usan variables tanto de transacción como contextuales y demográficas.

Luego viene la otra cara de la moneda que es mucho más compleja y ambiciosa en su implementación: crear computadoras y sistemas que puedan aprender muchas de las tareas que un ser humano puede hacer. 

Otra cosa a tener en cuenta es que, según Weisz, la configuración de la IA tiene una proporción bien definida: mientras que el 10% del esfuerzo y del valor viene de los algoritmos, el 20% viene del stack tecnológico y el 70% restante se enfoca puntualmente en transformación de procesos de personas y gestión del cambio.

“Hoy en día hay una lógica en la construcción de estas herramientas, y es que partes de ese 70% deben estar de la mano de las personas que operan estos aparatos. Ese fragmento de la lógica del conocimiento tiene que estar reflejado en las herramientas. Algo que ayuda a la adopción es que no sean modelos de caja negra, y ChatGPT y estos otros son modelos de caja negra porque todavía no entendemos qué es lo que hay adentro”, explicó el experto.

Publicidad

LEA TAMBIÉN: ChatGPT: ¿amenaza o herramienta? Expertos en Inteligencia Artificial explican su potencial

En el corto plazo, ese conocimiento humano va a ser sumamente importante para ayudarle a la construcción e implementación de estas herramientas, por lo que el camino a seguir debe estar guiado por una visión más amplificada donde las personas se pueden centrar en darle valor agregado y fortalecer falencias actuales, como el fact checking. Solo este punto deja en claro una cosa: la inteligencia humana va a tener que seguir coexistiendo para asegurar que su contenido sea coherente.

Por eso es que vale la pena preguntarse qué tan artificial puede ser la IA.

Los desafíos

De hecho, muchos mapas sectoriales buscan desde ya cuál es el desafío sobre el acceso a IA. Uno de ellos es el sector defensa, algo de lo que Galle puede hablar con propiedad tras trabajar de la mano con la Organización del Tratado del Atlántico Norte (OTAN) para revisar los avances tecnológicos que se adelantan en sus países miembros alrededor de la inteligencia artificial. 

“Había mucho nerviosismo sobre cómo los sistemas de armas podían ser dominados por IA. Sin embargo, se dieron cuenta de que en otras naciones ya estarían usando eso de esa manera. Se trata de una combinación de tensión ética y práctica sobre cómo se usa, no solo en el sector defensa sino en experiencias de consumidor que pueden mejorar”, recalcó. 

Publicidad

LEA TAMBIÉN: Otra cara de la inteligencia artificial: la carrera por armas autónomas entre EE.UU., China y Rusia

Incluso, se puede utilizar la IA en el monitoreo de redes sociales, y así los mismos jóvenes pueden ser parte de una organización que lucha contra explotación de menores, monitoreando fotografías, detectando delitos como pornografía infantil y fraude en tarjetas de crédito, ayudando autoridades a fortalecer los sistemas de vigilancia de las autoridades en esos campos. “Hay muchas aplicaciones que veremos emerger, pero estamos en los primeros días de aprender y descubrir cómo eso va a pasar y cómo el progreso se dará (…) La gente no debe preocuparse por la tecnología sino por las personas que la usan”, detalló.

Esto demanda que tanto la sociedad como el sector público y privado, e incluso los mismos educadores, piensen en conjunto cómo crear esos trabajos que posiblemente hoy no serían tan bien remunerados. Si va a haber posiciones que van a rebalancear el esquema laboral, ya sea por la tecnología en sí o por el cambio que representan a la manera de hacer las cosas, el impacto va a estar en la forma en que se van a cubrir las necesidades que surjan en otros sectores de cuidado.

“Para poder llevarlo al siguiente nivel de productividad, pensemos en tomar una decisión mucho más aumentada sobre la base de datos y optimización con una visión más global y no solamente a un proceso en particular. Eso se hace con esa gestión de cambio, y por eso el término no es inteligencia artificial, sino inteligencia amplificada: no es que el algoritmo vaya a reemplazar al operario de una planta minera, sino qué otras variables hay alrededor del tipo de mineral que está entrando y cómo yo puedo tomar una mejor decisión para incrementar mi recuperación de la planta”, subrayó Weisz.

Publicidad

¿Cómo regularlo?

En esa búsqueda de una inteligencia amplificada es difícil saber quién va a salir victorioso. Todos quieren un pedazo de la torta. Microsoft, Google, Meta son apenas algunos de los actores que están metidos de cabeza en el tema. Incluso el mismísimo Elon Musk, que en estos últimos años quiere hacer presencia en todo, busca crear una IA que le compita a ChatGPT. Aunque para ser francos, entre más competencia haya mejor.

“Que no haya un solo sistema dominando evita que podamos volvernos rehenes de él. No buscamos una verdad universal sino maneras de que estas tecnologías mejoren nuestras vidas. Vamos a lidiar con temas más complejos donde necesitaremos asistencia de las maquinas, por lo que esa competencia y esa variedad es algo saludable”, complementó Weisz.

Ahora, tampoco hay prisa para encontrar todas las respuestas, pues apenas estamos metiendo los pies en el agua. Como hasta ahora estamos en los “días iniciales” en lo que al desarrollo de esta tecnología se refiere, los conceptos con los que ahora estamos familiarizados van a cambiar rápido. Para el directivo, con la calidad de pensamiento de los expertos inmersos en el tema podemos tener ventaja de la aceleración del progreso y encontrar soluciones más avanzadas.

Por el contrario, si pones el computador cuántico de IBM con todas sus capacidades, eso puede llevar a sistemas absolutistas o controladores, y estamos viendo modelos de control total de información, de acuerdo con Velásquez. Y aquí volvemos a Elon Musk como ejemplo de referencia, pues su compra de Twitter también es un tema de libertad de expresión muy complejo, cuyo debate no se puede evadir al hablar de IA. “Facebook, Amazon, Apple y Twitter deciden qué sale y qué no sale, y si eso lo hacen seres humanos, la IA plantea riesgos”, señaló.

Con este debate sobre la mesa, no se trata de que solo Google, Microsoft y OpenAI  se sienten a configurar esa autorregulación, sino que es un asunto en el que todas las empresas, independientemente del sector al que pertenezcan, van a tener que entrar para evitar esa zona gris de conflictos legales con los autores o con los propietarios de una información que pueda ser utilizada por una IA.

Eso se ve más más puntual en las grandes empresas con esta lógica de modelos de modelos de IA generativa explicada por Weisz. Esta lógica cambia el paradigma, porque compañías más pequeñas pueden tomar un modelo funcional de esas grandes firmas y hacer “ajustes finos” con megas de información para poder utilizarlo en sus operaciones, incluyendo acciones como detección de imágenes y errores en la web.

Publicidad

“Con unas 50, 100 o 200 imágenes de defectos de tu proceso, puedes tener un algoritmo alimentado que te ayuda a hacer esa detección mucho más rápido y mucho más barato que hacer un modelo desde cero en tu operación. Eso está incrementando el acceso para las personas que no tienen que ser técnicas, pero también para las empresas que pueden adoptar este tipo de tecnologías y aplicarlas a su modelo de para sacarle beneficio”, recalcó. 

Los reparos

Todas las ventajas anteriormente expuestas no dejan de lado los riesgos que aún existen sobre la IA: estas tecnologías están siendo entrenadas de una manera no supervisada o semi supervisada, lo que no permite evitar que consuma o se retroalimente de contenidos donde, inevitablemente, hay sesgos.

“Creo que cada innovación y nueva tecnología tiene un potencial para ser usada con malas intenciones, y un riesgo asociado que puede generar temores. Tanto así que los webmakers estaban asustados sobre si será el fin del mundo visto desde tecnologías emergentes. Tengo sentimientos encontrados porque debemos encontrar formas de mitigar el riesgo. No me suscribo a esa visión distópica del mundo donde los robots nos van a dominar, y no creo que vayamos allá, pero no tengo duda que habrá gente que usará IA para malas cosas y tenemos que estar atentos a ello”, detalló Galle.

Cabe recordar que la primera versión de ChatGPT, liberada en 2018, originó interacciones con un sesgo bastante fuerte hacia el sexismo y el racismo gracias a la información que se consumía del internet sin tener ningún tipo de revisión. Lo que está ayudando ahora son herramientas como GPT3, modelo de lenguaje autorregresivo que emplea aprendizaje profundo.

“Además de tener toda la trayectoria de distintos algoritmos, le aplicaron una lógica de aprendizaje reforzado donde un humano estaba dentro del proceso y te decía si efectivamente era correcto o no lo que pasaba alrededor”, apuntó Weisz en su charla con FORBES.

“Lo que ya no puedo decir, aunque quisiera, es que ya no exista o que se prohíba. No va a desaparecer. Entonces hay que minimizar esos riesgos y los responsables de esas tecnologías deben asegurar su veracidad. Es una cosa que hasta ahora está en entrenamiento”, concluyó Velásquez.

Publicidad

Claramente aún existe un sesgo de información importante, lo que nos obliga a asegurar que se implementen prácticas responsables en la construcción de estos modelos. Unido a ello, hay un tema que no es menor y que se va a tener que definir desde el espectro regulatorio: ¿esos datos con estos grandes modelos lingüísticos, de fotos y videos, tenían permiso de entrenarse en ese contenido? Y si tenían permiso, ¿se le está pagando a esos autores? Hay todo un tema sobre el uso del consumo y el consenso de esa información que no se puede pasar por alto si queremos que la IA sea una herramienta en la que podamos confiar.

BOTÓN GOOGLE NEWS
Publicidad