Toda la publicidad que veremos en breve será construida con inteligencia artificial (IA), incluso las campañas políticas. Los beneficios son increíbles, pero también será necesario reconvertir roles y profesiones; un segmento relevante de programadores humanos será reemplazado por IA. Desde el análisis de diagnósticos por imágenes hasta la regulación del suministro de energía a vehículos eléctricos, la IA exige regulaciones para aprovechar su potencial.
La IA progresará tan rápido que podría volverse consciente y actuar fuera del control humano, incluso en contra de nuestros deseos. Los modelos de IA son difíciles de entender, con falta de claridad sobre cómo y por qué producen conclusiones o decisiones sesgadas. La adopción de la IA crea nuevos empleos, pero su automatización genera preocupación.
Para 2030, hasta el 30% de las horas trabajadas en la economía estadounidense podrían ser automatizadas, afectando especialmente a empleados negros e hispanos, según McKinsey. Goldman Sachs afirma que 300 millones de empleos podrían perderse, aunque también se crearán 97 millones para 2025. Sin embargo, muchos colaboradores no tendrán las habilidades necesarias para estos roles técnicos y podrían quedarse atrás si las empresas no capacitan a su fuerza laboral e introducen el concepto de “reskilling”.
La falta de monitoreo podría incluir manipulación social y sesgos de opinión. TikTok, por ejemplo, utiliza algoritmos de IA para llenar el feed de contenido basado en el comportamiento del usuario, pero ha sido criticado por no filtrar contenido dañino. Los deepfakes y la clonación de voz son problemas crecientes; los delincuentes usan voces generadas para cometer estafas y los pedófilos crean imágenes de niños, complicando investigaciones y exponiendo riesgos de privacidad. El reconocimiento facial en China refleja el control de la población, rastreando movimientos, relaciones y opiniones políticas.
Los algoritmos predictivos sobre delitos son útiles para desplegar estrategias preventivas, pero pueden reforzar vigilancia excesiva en comunidades étnicas o religiosas específicas, convirtiendo la IA en un arma autoritaria.
En cuanto a la democracia, los regímenes autoritarios usan IA para controlar datos personales, comprometiendo la privacidad. Según UNESCO, solo 100 de las 7.000 lenguas del mundo se han usado para entrenar los mejores chatbots, con contenido educativo dominado por Europa y EE.UU, limitando la diversidad de datos.
En procesos de recruiting basados en IA, los bots analizan rasgos de candidatos a través de expresiones faciales y voz, pero pueden estar contaminados por sesgos raciales. En el ámbito militar, el desarrollo de armas autónomas plantea riesgos globales. Estas armas, que localizan y destruyen objetivos por sí solas, podrían iniciar una carrera armamentista y, si caen en manos equivocadas, desatar conflictos globales.
La falta de regulación amplifica los riesgos de la IA. Desde manipulación social hasta conflictos armados, los desafíos son inmensos, pero establecer regulaciones y fomentar la educación global es esencial para evitar que la IA se convierta en una herramienta de control o destrucción.
Gabriel Zurdo es Especialista en ciberseguridad, CEO de BTR Consulting
Sobre la firma
Gabriel Zurdo
CEO de BTR Consulting, especialista en riesgo tecnológico y negocios.
Bio completa
Newsletter Clarín
Recibí en tu email todas las noticias, coberturas, historias y análisis de la mano de nuestros periodistas especializados
QUIERO RECIBIRLO
Tags relacionados