sábado, abril 26, 2025

Top 5 Semanal

Relacionadas

Ansiedad, acoso y posverdad: los riesgos de la difusión de deepfakes

Su impacto va desde la creación de contenido sexualizado falso hasta la difusión de noticias y declaraciones ficticias, lo que afecta gravemente la percepción colectiva de la realidad.

En los últimos meses, se conocieron varios casos en los que adolescentes usaron estas herramientas tecnológicas para crear imágenes sexuales falsas de compañeras de clase. Estas prácticas generaron traumas emocionales profundos y situaciones de acoso escolar grave.

“El daño psicológico causado por la circulación de estos materiales entre menores es significativo y persistente”, afirmó Eduardo Laens, Docente Secundario, Universitario y CEO de Varegos.

“Según estudios recientes, las víctimas de estos deepfakes enfrentan estrés, ansiedad y depresión, y se agrandan sus problemas de autoestima y confianza personal. Los especialistas en psicología adolescente recomiendan una intervención educativa temprana y programas de concientización que incluyan tanto a estudiantes como a padres y docentes”, agregó el especialista.

Pero el impacto de los deepfakes no se limita al ámbito escolar ni a los menores de edad. Adultos en todo el mundo también están expuestos constantemente a contenidos manipulados, enfrentándose a una creciente dificultad para discernir entre hechos reales y contenidos fabricados con IA. “Este fenómeno alimenta la posverdad, definida por el Diccionario de Oxford como una situación donde los hechos objetivos tienen menos influencia en la formación de opinión pública que las emociones y las creencias personales. De ese modo, nos volvemos cámaras de eco de la mentira generada por otros”, explicó Laens.

La circulación masiva de noticias falsas (fake news) reforzada con la credibilidad visual de un deepfake tiene potencialmente consecuencias desastrosas para la sociedad. “Desde campañas de desinformación durante procesos electorales hasta la creación de conflictos sociales y políticos, la facilidad con la que se puede generar y distribuir contenido falso requiere atención inmediata y regulación clara”, advirtió Lens.

Este fenómeno no es nuevo. Hace varios años que cientos de organizaciones globales nos alertan respecto de estas alteraciones, las cuales fueron potenciadas por la llegada de las redes sociales, ahora exacerbadas por las IA generativas. La abundante contaminación de contenido falso, cuyo único fin es lograr interacción, se traduce en una creciente apatía hacia el consumo de información: como todo puede ser mentira, nada es verdad.

“Como si todo esto fuera poco, el auge de las estafas sofisticadas mediante deepfakes propone un escenario aún más complejo”, aseguró el especialista a TN Tecno. “Técnicas avanzadas de falsificación audiovisual permiten a los estafadores imitar con precisión tanto a figuras de autoridad, desde ejecutivos de empresas a líderes políticos, como a familiares directos de gente común”.

Según Laens, los deepfakes explotan nuestros sesgos cognitivos como el de confianza, presión temporal y urgencia, confirmación, y el realismo visual y auditivo. Apuntan como pilares básicos y profundos de nuestra psicología primigenia.

La responsabilidad para contrarrestar los deepfakes es compartida

Plataformas digitales y redes sociales tienen la obligación moral y técnica de detectar y bloquear contenidos falsos generados por IA”, afirmó Laens. Y agregó que, paralelamente, las instituciones educativas deben priorizar la formación crítica en medios digitales desde temprana edad. “Nosotros, como miembros activos de la sociedad, tenemos el deber moral de esforzarnos por separar la paja del trigo”, expresó.

Fomentar la alfabetización digital y la concientización sobre inteligencia artificial es sin duda la mejor estrategia para prevenir. Pero, según Laens, la realidad nos apremia con tácticas de corto plazo para combatir este fenómeno, como por ejemplo:

  1. Al consumir noticias, buscar la validación de la misma en al menos dos fuentes de confianza. “Tomémonos un momento antes de reenviar algo a otra persona, para verificar no solo la existencia de la noticia, sino también la interpretación de la fuente que la cita”, sugirió. 
  2. Recomendar a los menores de edad tener perfiles de redes sociales privados limitaría el acceso a sus imágenes y videos de terceros malintencionados.
  3. Construir con la familia un sistema de palabras de seguridad que permitan validar inmediatamente la identidad para detectar casos de deepvoice (deepfake de voz)

El desafío central consiste en lograr un equilibrio entre innovación tecnológica y ética social. “Nuestra capacidad individual para discernir la verdad es la última línea de defensa. Es vital generar conciencia ciudadana para que las personas aprendan a cuestionar y verificar lo que ven, escuchan y comparten en línea”, finalizó Eduardo Laens.

Fuente: TN