099 276 6345 info@sentipensante.net

PABLO MORÁN GARCÍA

Periodista y Director Audiovisual

Con una fuerza transformadora, la inteligencia artificial (IA), ha irrumpido en el ámbito de la comunicación, ofreciendo nuevas posibilidades y desafíos. Su impacto en los medios, en el periodismo y en la interacción social, plantea la pregunta: ¿es una revolución que mejora la comunicación o una amenaza que pone en riesgo la integridad de la información?

La inteligencia artificial ha permitido avances significativos en la automatización de tareas comunicativas. Por ejemplo, en el periodismo, algoritmos como ChatGPT pueden generar información o noticias de forma rápida y precisa, liberándonos a los periodistas de tareas redundantes, y permitiéndonos concentrarnos en contenidos más profundos y analíticos. Asimismo, la personalización de contenidos se ha potenciado, ya que la inteligencia artificial puede analizar grandes volúmenes de datos para ofrecer información adaptada a las preferencias individuales de los usuarios.

Esa capacidad de personalización también se extiende a la publicidad y el marketing, donde la inteligencia artificial permite segmentar audiencias de manera más efectiva, mejorando la relevancia de los mensajes, aumentando la eficiencia de las campañas. En la atención al cliente, igualmente, los chatbots impulsados por inteligencia artificial ofrecen respuestas rápidas y precisas, mejorando la experiencia del usuario.

Sin embargo, el uso de la inteligencia artificial en la comunicación no está exento de riesgos. La creación de contenidos falsos, como deepfakes, ha demostrado ser una herramienta poderosa para la desinformación. Estos contenidos pueden ser tan realistas que resulta difícil distinguirlos de la verdadera realidad, lo que plantea serias preocupaciones sobre la integridad de la información que consumimos.

Por otro lado, la inteligencia artificial puede ser utilizada para manipular la opinión pública. Investigaciones han revelado que grupos malintencionados han utilizado la inteligencia artificial para crear noticias falsas que afectan procesos electorales, engañando a los votantes y distorsionando el discurso democrático. La facilidad con la que se pueden generar y difundir estos contenidos aumenta la vulnerabilidad de las sociedades a la manipulación digital.

Otro aspecto que preocupa es el sesgo algorítmico. Esto quiere decir que los sistemas de inteligencia artificial aprenden de los datos con los que son entrenados, y si esos datos contienen prejuicios, la inteligencia artificial puede perpetuarlos. Esto puede llevar a la difusión de información sesgada que fortalezca estereotipos y desigualdades existentes en la sociedad.

La privacidad también se podría verse amenazada, ya que la recopilación masiva de datos, por parte de sistemas de inteligencia artificial, plantea interrogantes sobre el uso y protección  de la información personal. Sin una regulación adecuada existe el riesgo de que estos datos sean utilizados de manera indebida, vulnerando derechos fundamentales de los individuos.

Para que la inteligencia artificial sea una herramienta que beneficie a la comunicación, es esencial establecer marcos éticos y regulatorios claros. La transparencia en el uso de la inteligencia artificial, la verificación de contenidos generados por algoritmos y la educación digital son pasos fundamentales para mitigar los riesgos asociados.

Es crucial, sin lugar a dudas, fomentar la colaboración entre técnicos, comunicadores, legisladores y la sociedad civil, para desarrollar políticas que promuevan el uso responsable de la inteligencia artificial. Solo de esa manera se podrá aprovechar su potencial para mejorar la comunicación sin caer en los peligros que conlleva su mal uso.

La clave estará en cómo decidamos gestionar esta tecnología: si con responsabilidad y ética para que sea una herramienta invaluable; o de lo contrario, podría convertirse en una amenaza para la integridad de nuestra comunicación y democracia.