Tras el despido de parte del equipo responsable de garantizar la legalidad de las solicitudes gubernamentales de información privada de los usuarios, Google recurrió a la IA para compensar la falta de trabajo. Los empleados declararon a Forbes que no lo han hecho.

Los esfuerzos de Google por utilizar inteligencia artificial para procesar más rápidamente las solicitudes de datos de agencias gubernamentales y policiales no están yendo tan bien como la empresa esperaba.

Incesantemente desbordada por un aluvión de demandas de la policía de todo el mundo (hubo 236.000 solo en el primer semestre de 2024), la empresa ha recurrido cada vez más a la IA para gestionar la creciente acumulación de órdenes judiciales y solicitudes de datos a las que se enfrenta su experimentado equipo de Apoyo a Investigaciones Legales (LIS).

Miembros actuales y anteriores de dicho equipo declararon a Forbes que los ingenieros de Google habían estado trabajando en herramientas capaces de procesar órdenes judiciales, citaciones y otras solicitudes oficiales, antes de buscar los datos pertinentes para que un miembro del LIS los revisara.

En teoría, estas herramientas agilizarían significativamente el trabajo manual del personal del LIS. Una fuente familiarizada con el asunto declaró a Forbes que la acumulación de solicitudes asciende a miles.

También te puede interesar: Amazon Prime Video y su proyecto más ambicioso hecho en Chile para el mundo: “El rey es el contenido local”

“Claramente, la solución es contratar más personas para gestionar estas solicitudes, pero Google está implementando, en cambio, una IA deficiente”.

Cooper Quintin, EFF

Pero, hasta ahora, esas herramientas no han logrado hacer lo que se espera de ellas, según fuentes. Si bien la IA fue entrenada con el trabajo realizado por el equipo de LIS, aún no ha podido replicarlo. Y ahora, 10 ingenieros encargados del desarrollo de la IA han sido despedidos y el futuro del proyecto está en duda, según declaró el personal a Forbes.

Un miembro del personal comentó que la IA aún no se ha implementado y que los despidos la retrasarían aún más . Otro añadió: «Llamar ‘IA’ a cualquiera de nuestras herramientas actuales parece exagerado». Como Forbes ya había informado, una prueba de la tecnología había generado más trabajo, ya que cualquier solicitud procesada por la IA debía ser verificada dos veces y, a menudo, reescrita por humanos antes de ser entregada a las fuerzas del orden.

Google declinó hacer comentarios sobre las salidas y no respondió a preguntas sobre la IA como solución a su problema de gestión de solicitudes de las fuerzas del orden. El portavoz de Google, Alex Krasov, se limitó a decir que la compañía siguió implementando cambios para operar de forma más eficiente sin modificar la forma en que recibimos o evaluamos las solicitudes de las fuerzas del orden.

Cooper Quintin, tecnólogo sénior de interés público de la Electronic Frontier Foundation, declaró a Forbes que considera “mala idea” utilizar IA en cualquier tipo de proceso legal debido a la tendencia de los modelos a “alucinar”, inventando información. Señaló numerosos casos recientes en los que los jueces advirtieron a los abogados sobre el uso de IA para redactar sus documentos después de que el software falsificara citaciones legales. “Claramente, la solución es contratar a más personas para gestionar estas solicitudes, pero Google está implementando, en cambio, una IA deficiente”, afirmó Quintin.

Si la IA no es capaz de analizar correctamente las solicitudes policiales legales, ¿cómo podemos confiar en que detecte las fraudulentas?, preguntó Quintin. Se han dado numerosos casos en los que delincuentes se han hecho pasar por un departamento de policía y han falsificado órdenes judiciales y solicitudes de emergencia para robar información personal que podría utilizarse para localizar, acechar o acosar a personas. En noviembre del año pasado, el FBI advirtió sobre un aumento en el número de hackers que utilizan cuentas de correo electrónico gubernamentales comprometidas para realizar este tipo de solicitudes fraudulentas.

«Google ya tiene problemas para responder a pedidos e informes falsos», añadió Quintin. «Creo que un sistema de IA como este agravará el problema».

Este artículo fue publicado originalmente por Forbes US.