Parecía que con los chatbots lo habíamos visto todo, y sin embargo estábamos sólo ante la punta del iceberg. La carrera por dominar el mercado de la inteligencia artificial hace que cada vez existan modelos más avanzados, más completos y con una proyección holística. Eso sí, al tiempo que se potencia al máximo las capacidades de esta tecnología también comienzan a emerger las dudas éticas sobre su desempeño.
A día de hoy la principal función que le damos a la inteligencia artificial es para obtener ideas o, en su defecto, información precisa. El algoritmo nos servirá para desplegar un abanico de opciones, pero al final seremos nosotros quienes decidiremos que opción escoger.
¿Qué ocurriría entonces si, a corto plazo, irrumpe en el mercado una IA capaz de tomar decisiones por nosotros? Se tratará de una tecnología con la suficiente profundidad de conocimiento como para saber no sólo todas las variables que afectan a nuestra búsqueda, sino también nuestros propios “filtros individuales” en base a la experiencia que la IA tiene de nosotros mismos.
La inteligencia artificial que elige por ti
Aunque puede parecer que estamos hablando de futuribles a muy largo plazo, lo cierto es que ya contamos con aplicaciones de inteligencia artificial que están navegando en este sentido. Así por ejemplo, Copilot de Microsoft puede superar complicados desafíos de codificación, adaptándolos a las necesidades que vamos a tener.
Por su parte Alphabet anunció que está trabajando en algoritmos de inteligencia artificial que contarán con capacidad autónoma para navegar por internet ellos mismos. Mención especial queremos hacer también a programas como Devin, del cual afirman que es capaz incluso de generar páginas y contenidos web desde cero, simplemente a través de los parámetros y la descripción que le demos.
Hace unos días, durante una intervención en una conferencia de TED, Demis Hassabis, CEO de DeepMind y responsable de la estrategia IA en Google, describía la actual situación de la inteligencia artificial con las siguientes palabras:
“La industria apenas está explorando la superficie […] Quizás estemos en el inicio de una nueva era dorada de descubrimientos científicos, un nuevo Renacimiento”
Prueba de que sus palabras no son baladí es el hecho de que la compañía a la cual representa proyecte gastar alrededor de 100.000 millones de dólares durante los próximos años para el desarrollo de la IA.
¿Qué beneficios tiene la IA para la toma de decisiones?
El uso de programas como ChatGPT han abierto la caja de Pandora al consumidor general. Aquellos defensores acérrimos de las posibilidades tecnológicas tienen claro que la inteligencia artificial es, por encima de todo, un gran apoyo. Fundamentalmente esgrimen los siguientes motivos:
- A diferencia de los seres humanos, la IA puede procesar ingentes cantidades de datos en muy poco tiempo, incluso parándose en detalles que pueden pasar desapercibidos para el ojo humano.
- Las decisiones que toma la IA se basan estrictamente en cuestiones mesurabes, objetivas y que presentan evidencias empíricas. De esta forma se elimina cualquier tipo de sesgo subjetivo que pueda condicionar nuestra elección.
- A través de un análisis con IA, vamos a poder detectar también fortalezas y debilidades que nos ayuden a mejorar los resultados futuros.
Cabe señalar que el segundo punto es el que ahora mismo se encuentra en entredicho. La tecnología IA que los informáticos plantean a futuro podría tener en cuenta el aprendizaje sobre nuestros hábitos, costumbres y tendencias (es decir, implementado un sesgo subjetivo) a la hora de ofrecernos resultados.
Podemos utilizar la IA para buscar un restaurante para cenar, pero si por lo general acabamos acudiendo a hamburgueserías y pidiendo determinado tipo de hamburguesa, el algoritmo aprenderá de nuestras acciones para directamente elegir por nosotros el próximo local a visitar. Aquí es donde entramos de lleno en un nuevo frente que no es el ético, sino el de la privacidad de nuestros datos.
Los riesgos éticos, a evaluación
Evidentemente, una situación de máximos en donde dejamos la toma de decisiones en manos de un algoritmo supone un enorme desafío ético. ¿Quién es responsable de los efectos que dichas decisiones provocan? ¿Por qué nadie repara en que las propias IA también cuentan con sesgos conductuales en su programación? ¿Dónde queda el libre albedrío del ser humano en todo esto?
Además de lo anterior, un reciente estudio de Bikolabs junto con la Universidad de Deusto revela que la excesiva confianza en el uso de inteligencia artificial para la toma de decisiones acaba siendo perjudicial. Dicho estudio concluyó que la confianza excesiva en el uso de estas herramientas puede llevar a los usuarios a aceptar acríticamente las recomendaciones de la IA, incluso cuando son erróneas. Por lo tanto, el objetivo inicial quedaría totalmente invalidado.
Queda mucho trabajo por delante. En cualquier caso a nadie se le escapa que el futuro de la IA inevitablemente irá parejo a un estudio crítico sobre su alcance en la toma de decisiones.