Imagine que su ‘ smartphone ‘ es capaz de realizar, prácticamente, cualquier acción en su nombre sin necesidad de que usted tenga que deslizar el dedo por la pantalla del dispositivo. Que la máquina sola, por su cuenta, puede reservar los billetes de avión y el hotel para sus próximas vacaciones adaptándose a su presupuesto. O realizar la compra en el supermercado cuando nota que falta algo en la despensa. O hasta de agendar llamadas de trabajo en su nombre, porque el sistema se sabe al dedillo sus horarios y el momento del día en el que le viene mejor tener la conversación. Pues esto, que igual todavía suena a quimera más propia del cine de ciencia ficción, no está tan lejos de cristalizar. O, al menos, eso es lo que esperan las grandes tecnológicas, que ya trabajan a destajo para ofrecer esta tecnología basada en inteligencia artificial (IA) a las empresas y a las usuarios corrientes. ¿El nombre que le dan? Agente de IA , una suerte de criado hipervitaminado que lo sabe todo sobre la persona a la que sirve y que, llegado el momento, hasta será capaz de comunicarse con otros sistemas de su clase. MÁS INFORMACIÓN noticia No Los investigadores se quedan sin ayudas para proyectos de IA y se levantan contra Morant: «Este desprecio es inaudito»«Un agente es una extensión de una tecnología anterior que recibía el nombre de mayordomo. La metáfora es sencilla: hablamos de máquinas que están preparadas para cumplir con todo tipo de labores de intendencia en base a los gustos del usuario (algo que hace, por ejemplo, un termostato inteligente)», señala en conversación con ABC Ulises Cortés, catedrático de Inteligencia Artificial en la Universidad Politécnica de Cataluña y experto en ética. A diferencia de los mayordomos, prosigue Cortés, los agentes son capaces «de adelantarse a las necesidades del usuario y de actuar, incluso, por su cuenta. Ya se han desarrollado mucho, por ejemplo, en la compra y venta de acciones en bolsas como la Nueva York». Sin embargo, las grandes empresas pican más alto. Quieren que las nuevas versiones sean más listas y que todos, independientemente del oficio, recurran a la tecnología. Y los analistas y empresarios lo ven claro, o eso dicen: después del lanzamiento de soluciones tipo ChatGPT y de herramientas capaces de crear imágenes y vídeos hiperrealistas, los agentes son el siguiente gran paso en el desarrollo de la IA. Esto no para, en parte porque las consultoras tienen que seguir facturando y hay que tentar al capital de riesgo.De acuerdo con un estudio elaborado por Gartner el pasado octubre, se espera que para 2028 el 33 % de las aplicaciones de software empresarial incluyan agentes de IA frente a menos del 1 % que los empleaban en 2024. De acuerdo con la consultora, esto permitirá que el 15 % de las decisiones laborales de una compañía se tomen de forma autónoma. Sin necesidad de que el humano mueva un dedo. La aspiración final de los desarrolladores es que incluso una sola persona pueda controlar compañías millonarias en solitario delegando casi todo el trabajo en las máquinas. Y si esto sirve para la empresa, también valdrá para el usuario corriente cuando utilice el móvil.Muchas empresasAsí lo dejó claro Google el pasado diciembre durante la presentación de la nueva versión de Gemini , su ChatGPT particular. La firma de Mountain View utilizó el marco del evento para mostrar el desarrollo de sus trabajos en Proyecto Astra , un agente de IA con el que el usuario puede conversar a través de texto, imágenes o, incluso, vídeo en tiempo real. Y todo, a través de un teléfono con sistema operativo Android o de unas gafas inteligentes.El buscador, además, anunció que está desarrollando Proyecto Mariner , con el que pretende llevar los agentes al mismo buscador de Chrome. Y todavía queda OpenAI. De acuerdo con la agencia ‘Bloomberg’, la empresa creadora de ChatGPT anunciará su primer agente de IA antes de que finalice este enero. Por el momento, se sabe que recibe el nombre en clave de ‘Operator’ (Operador, en castellano) y que , en principio, estará solo disponible para desarrolladores. Sin embargo, atendiendo al historial de la firma, lo más probable es que cualquier usuario lo tenga al alcance en cuestión de meses. Porque en OpenAI piensan que para descubrir posibles riesgos, y atajarlos a tiempo, los ingenios deben estar al alcance del común de los internautas. Y en lo que se refiere a los agentes de IA estos no son pocos.Hace apenas una semana investigadores de la Universidad de Cambridge publicaron un estudio de la posibilidad de que las propias empresas desarrolladores exploten a sus agentes de IA para influir en la toma de decisiones de los usuarios afectando a los hábitos de consumo de los usuarios o, incluso, a los resultados en procesos electorales. ¿Cómo lo harían? Sirviéndose de la gran cantidad de información que tienen de los usuarios a los que sirven y de ganarse su simpatía durante las conversaciones, con la que las máquinas lograrían alcanzar, incluso, «niveles de confianza y comprensión que permitan la manipulación social a escala industrial». «(Las tecnológicas) se están gastando enormes recursos para colocar asistentes de IA en todas las áreas de la vida, lo que debería plantear la cuestión de a qué intereses y propósitos están destinados a servir estos supuestos asistentes», señala el doctor Yaqub Chaudhary, uno de los firmantes del estudio.Los investigadores también alertan acerca del potencial interés que tendrán las empresas en conocer los hábitos de consumo y los intereses que almacenan los agentes sobre sus dueños y dirigirles. Algo similar a lo que ocurre actualmente con redes sociales como Facebook, Instagram o Tiktok, que mercadean con los datos de sus usuarios para mostrarles publicidad dirigida. Los firmantes del estudio denominan a este probable fenómeno, en lo que se refiere a la IA, como ‘economía de las intenciones’. Por ejemplo, el asistente podría dirigir al usuario hacia el consumo de productos y servicios que, en realidad, ni necesita ni desea.«Estas empresas ya venden nuestra atención. Para obtener una ventaja comercial, el siguiente paso lógico es utilizar la tecnología que claramente están desarrollando para predecir nuestras intenciones y vender nuestros deseos antes de que los comprendamos por completo», dice Chaudhary al respecto.«No son tus amigos»La preocupación de los científicos sobre el impacto de los agentes en la sociedad va mucho más allá de lo que señalan los investigadores de Cambridge. Juan Ignacio Rouyet, profesor de IA en la Universidad Internacional de La Rioja y consultor senior en la empresa de estrategia tecnológica Eraneos, remarca que lo que se recoge en el artículo es «posible» y «preocupante»: «Y no tardará tanto en llegar. Puede que sea en cosa de un año, porque ya se ve cómo está avanzando el desarrollo de la tecnología. Los agentes irán llegando, e igual lo terminamos de ver explotar a finales de 2025». En opinión del experto, estos asistentes acabarán conociendo al usuario incluso mejor que las actuales plataformas sociales que emplean en la red: «Pueden coger más información que las redes sociales y podrán interpretar tus emociones y conocer tus ideas políticas. La idea es que te recomienden, pero la sensación que hay detrás es que también hay riesgo de que te terminen manipulando». Algo que, además, iría en contra de la ley de IA de la UE, que prohíbe completamente la comercialización de sistemas que manipulen la voluntad del usuario.Para evitar problemas, el experto remarca que los internautas que utilicen agentes deben tener claro en todo momento que «las máquinas no son sus amigos» y que lo que probablemente termine buscando, al menos en cierta medida, «es hacer dinero a su costa».A Rouyet, le preocupa especialmente la influencia de este tipo de tecnología en los procesos democráticos, pero quizá de forma más especial el riesgo de que, a raíz de su uso, la sociedad termine perdiendo todavía más autonomía al delegarlo todo, o casi, a las máquinas: «Perder autonomía significa perder libertad y capacidad para decidir. Es algo que me preocupa mucho como tendencia». Y no es el único.Adiós a las ideas propiasSiguiendo la línea de Rouyet, el analista de negocio digital José Luis Casal avisa de que estamos hablando de «herramientas súper poderosas» y alerta sobre el más que probable daño al pensamiento crítico que pueden generar en el usuario. Porque, al final, estamos hablando de sistemas que limitan al mínimo el trabajo de su dueño. «El pensamiento crítico se está abandonando por completo. Y ahora llega una nueva generación de jóvenes que es especialmente vulnerable por razones educativas. La IA, en función del entrenamiento con datos que haya recibido puede tender a favorecer los intereses de su fabricante. Si no dudas de lo que te dice la máquina y le dices que sí a todo vas a tener un problema», expresa Casal.Cortés tiene exactamente la misma opinión: «Cuanto más compulsiva sea la gente cuando usa tecnología y menos crítica, más cosas van a poder venderles. Ten en cuenta que todo lo que evita la interacción social con personas y te fuerza a emplear canales digitales termina anulando tu opinión». El catedrático de la Universidad Politécnica de Cataluña avisa también sobre el riesgo de que un agente de IA sufra un fallo de seguridad que deje al aire toda la información que conoce sobre su dueño. Aquí entran correo electrónico, tarjetas de crédito, número de teléfono o domicilio. Pero también podría haber espacio para patrones de conducta e intereses particulares que lo diferencian del resto de la población. «Imagínate un agente que tenga acceso a tu coche. Este conoce tus rutas y tus hábitos, te puede geolocalizar. Si alguien logra ‘hackearlo’ podría saber absolutamente todo sobre la forma de moverse de esa persona, y esto representaría un gran riesgo», remarca el experto.
Leave a Reply