Bit a bit: historias de blockchain e inteligencia artificial

Inteligencia Artificial: el peligro real y presente

La Inteligencia Artificial el peligro real y presente - Alberto Gil de la Guardia
photo_camera La Inteligencia Artificial el peligro real y presente - Alberto Gil de la Guardia

La inteligencia artificial está en el centro de las conversaciones tecnológicas actuales, y no siempre por las mejores razones. Recientemente, he recibido un correo electrónico de un extraño que afirmaba que nuestro trabajo en inteligencia artificial (IA) acabaría con la humanidad. Aunque esto pueda sonar alarmista, refleja un miedo creciente hacia esta tecnología.

La IA está en los titulares casi a diario, desde noticias emocionantes como el descubrimiento de nuevas moléculas para la medicina, hasta titulares más oscuros, como un chatbot que sugiere a alguien que se divorcie. Sin embargo, los verdaderos peligros de la IA no radican en estos extremos, sino en sus impactos presentes y tangibles en la sociedad y el medio ambiente.

Como investigador de los efectos de la IA en la sociedad, veo que aunque nadie sabe con certeza qué ocurrirá en 10 o 20 años, ya estamos enfrentando serios problemas hoy. La IA no opera en un vacío; es una parte integral de nuestra sociedad y afecta tanto a las personas como al planeta. 

Primero, hablemos de la sostenibilidad. Cada vez que se entrena un modelo de IA, se consume una enorme cantidad de energía. Por ejemplo, el entrenamiento del modelo Bloom, utilizó tanta energía como 30 hogares en un año y emitió 25 toneladas de dióxido de carbono. Para poner esto en perspectiva, es como conducir un coche cinco veces alrededor del planeta solo para que alguien pueda usar este modelo para contar un chiste de "toc, toc". Y modelos más grandes, como GPT-3, emiten 20 veces más carbono. Sin embargo, las empresas tecnológicas rara vez miden estos impactos, y mucho menos los divulgan, lo que sugiere que estamos viendo solo la punta del iceberg.

Pero el impacto ambiental no es el único problema. La IA también puede perpetuar y amplificar sesgos existentes. Un ejemplo claro es el de los sistemas de reconocimiento facial, que han demostrado ser mucho menos precisos para mujeres de color en comparación con hombres blancos. Esto puede llevar a situaciones peligrosas, como acusaciones falsas e incluso encarcelamientos injustos, como le ocurrió a Porcha Woodruff, acusada erróneamente de un robo de coche cuando estaba embarazada de ocho meses.

Además, la creación de estos modelos a menudo utiliza datos sin el consentimiento de sus creadores originales. Artistas y autores han visto cómo su trabajo ha sido utilizado para entrenar IA sin su permiso, lo que ha llevado a demandas por infracción de derechos de autor. Herramientas como "Have I Been Trained?" permiten a los artistas buscar en enormes conjuntos de datos para ver si su trabajo ha sido utilizado sin consentimiento, proporcionando la evidencia necesaria para emprender acciones legales.

Para abordar estos problemas, necesitamos transparencia y herramientas que nos permitan medir y mitigar los impactos de la IA. Actualmente se está trabajando en la creación de herramientas como CodeCarbon, que estima el consumo de energía y las emisiones de carbono de los modelos de IA. Estas herramientas pueden ayudarnos a tomar decisiones informadas, como elegir modelos más sostenibles o desplegarlos utilizando energía renovable.

En resumen, mientras que algunos están preocupados por futuros riesgos existenciales de la IA, debemos centrarnos en los impactos tangibles y actuales. La IA tiene el potencial de beneficiar a la humanidad, pero solo si abordamos sus impactos negativos de manera proactiva y transparente. No se trata de detener el avance de la tecnología, sino de asegurarnos de que este avance sea sostenible y justo para todos.

Más en Opinión