top of page

Tres riesgos latentes detrás de nuestra fascinación por la AI

🙍‍♂️ Nuevo artículo de Ana María Martinez


Antes de empezar... te dejo este dato 👇


Si quieres aprender cómo potenciarte con herramientas de no-code y AI para ser más productivo/a, te invitamos a nuestra próxima Masterclass.



 

Contexto ...


La adopción de herramientas de IA en nuestra sociedad está avanzando a un ritmo acelerado y, aunque resulta fascinante, es igualmente preocupante. Mis columnas más recientes han cubierto cómo las herramientas digitales pueden potenciar nuestra capacidad, sobre todo aquellas de fácil adopción, como las herramientas no-code o los chatbots de IA generativa. Y aunque sigo estando a favor de adoptar estas herramientas

para ser más productivos y creativos, cada vez me preocupa más el descontrol de estas tecnologías tan poderosas. Por eso, esta vez quiero dedicar esta columna a comentar sobre los riesgos latentes que traen los recientes avances de la AI y su rápida adopción.


Existen al menos tres riesgos fundamentales. Empezaré por el riesgo en el que podemos tener alta influencia a nivel individual para prevenirlo. Luego, abordaré dos factores de riesgo donde será necesaria muestra influencia colectiva para mitigarlos.


También puedes revisar nuestro artículo ¡AI, no te reemplazará! Pero sí el humano que la sepa usar
 

1. Pasar por alto las necesidades más básicas


Diversos allegados y clientes me preguntan frecuentemente cómo incorporar la lA en sus negocios, a lo que yo siempre respondo con otra pregunta: ¿qué tiene tu negocio y sus usuarios que quisieras atender mejor? Allí comienza una conversación que, en muchas ocasiones, nos lleva a realizar diagnósticos que evidencian que las empresas suelen temer necesidades muy básicas mal cubiertas. Traer un sistema potente de AI sobre una mala base es como pretender manejar un Ferrari en una calle llena de baches. Todo tiene que partir de un buen entendimiento de las necesidades, para luego decidir qué tecnología usar. Y no se trata de retrasar el uso de tecnologías avanzadas, sino de hacerlo mientras se cubren las necesidades más básicas también; es decir, manejar el Ferrari mientras se tapan los baches.


Por ejemplo, Kaudal hemos observado que el 83% de las personas dedican más de 10 hrs/mes en su trabajo a copiar y pegar datos de una fuente a otra manualmente (ej. entre hojas de cálculo). Esta ineficiencia está presente en ciento de empresas que han usado nuestra Kalculadora gratuita para calcular donde pueden ahorrar tiempo por medio de la automatización. Y este “bache” se puede cubrir con herramientas sencillas y poco utilizadas como Power Bi y Power Automate de Microsoft o Looker y Appsheet de Google. Son herramientas no-code que usar la mayoría y que van a incorporar pronto

chats de AI para facilitar aún más su uso.


A nivel social, el riesgo de distraernos con la AI es aún más serio. Sí, los Gobiernos democráticos deberían evaluar cómo aprovechar estas tecnologías avanzadas para

servir mejor a sus ciudadanos, pero también tienen que continuar reduciendo la brecha digital desde sus bases, ofreciendo, por ejemplo, acceso a Internet a quienes aún

no lo tienen.


2. Lanzamientos apresurados y con poca regulación.


El lanzamiento de Chat GPT, que fascinó a muchos, también causó preocupación entre expertos. Por años, existió un consenso implicito sobre no liberaral público modelos de IA generativa sin comprender plenamente su evolución y posibles usos. El afán competitivo entre gigantes (Ej. Microsoft vs. Google, EEUU vs China) ha desafiado

consensos, y figuras como Geoffrey Hinton, considerado el padrino de la AI, han alertado sobre los crecientes riesgos. Las personas y empresas que crean estos modelos debe asumir una responsabilidad clara sobre cómo estas herramientas aprenden y son utilizadas, y eso aún no sucede. Si bien existen aplicaciones fascinantes para la AI (ej. detectar células cancerigenas o carros que se acercan), también hay aplicaciones preocupantes (Ej. vijilar y detectar personas y reprimir la libertad de expresión). Además, su facilidad de uso y poencia las convierten en herramientas que incluso niños de 15 años las pueden usar para causar mucho daño, como acabamos de ver en un colegio en Perú.


Definir el camino a seguir es complejo, ya que cada decisión tiene repercusiones. Expertos como Geoffrey Hinton, Elon Musky Steve Wozniak fIrmaron una carta pidiendo una pausa en el desarrollo de modelos más potentes que GPT-4. Pero su llamado no tuvo mayor efecto, pues surgieron preocupaciones de que solo actores con intenciones éticas se detendrían. A mi parecer, ahora no es tan necesario modelos de AI más potentes, o más herramientas de AI. Ya hay más de 7 600 herramientas

de AI para unas 2000 tareas, según el portal theresanajforthat.com que Las monitorea. No necesitamos más. Necesitamos que los mejores modelos y aplicaciones se queden y sean más seguros. También necesitamos más regulación desde al menos tres frentes:


  1. Los Gobiernos deben enfocarse en proteger la identidad y la data de personas e instituciones.

  2. Los creadores de tecnologías de AI en hacerlas más seguras y encaminables hacia el bien.

  3. Nosotros debemos regular cómo usamos estas herramientas que nos entregan en bandeja, usando nuestro criterio humano y enseñando a niños, adolescentes y adultos a usarlo frente a tecnologías tan potentes.


3. Perder control ante una inteligencia significativamente superior.


Aunque me resulta difícil imaginar un futuro dominado por máquinas, no necesitamos llegar a ese punto para sentir inquietud. Hoy en día, la IA ya supera a los humanos en múltiples tareas fundamentales en nuestra interacción social. Además, algunos expertos cómo Mo Gawdat, quien fue Chief Business Oficcer de Google X y escribió el libro "Scary Smart" señalan que varias AI están expandiendo su conocimiento hacía áreas adyacentes a su especialización. Si esto sigue así, podría llegar un momento en que la AI sea muchísimo más inteligente que nosotros en amplios territorios. Y en ese caso, podríamos perder nuestro lugar y control en el mundo que hemos creado. Este futuro podría ser más cercano y posible de lo que algunos, incluso yo, quisiéramos creer.


En conclusión, el desarrollo y la adopción de la AI son inevitables y pueden traer innumerables beneficios. Sin embargo, es esencial que permanezcamos atentos y proactivos ante los riesgos asociados. Todas y todos tenemos un grado de responsabilidad en garantizar que la AI avance de manera segura y en beneficio de la sociedad.



Finalmente...

Si te gustaría conocer más de Kaudal y enterarte y conocer tips de automatización, síguenos en LinkedIn. 👇





17 visualizaciones0 comentarios
bottom of page