Deepfake: Cuando el lado oscuro de la inteligencia artificial amenaza las aulas

Por MiAulaTec

Los «deepfakes» son material multimedia creado o manipulado mediante algún tipo de tecnología de aprendizaje automático o profundo (inteligencia artificial) y son cada vez más sofisticados, más difíciles de detectar y fácilmente accesibles para cualquier persona con una aplicación de computadora o teléfono inteligente, a un costo mínimo o gratuito. (Altieri, 2024)

Las imágenes deepfakes sexualmente explícitas pueden generarse mediante métodos como el intercambio de rostros, la sustitución del rostro de una persona por el de otra o la «desnudez» de una imagen vestida para que parezca desnuda. 

Este artículo explora en detalle los riesgos del uso de deepfakes en educación, abordando sus implicaciones éticas y morales, así como los desafíos legales y regulatorios asociados.

Contrastaremos además enfoques adoptados en sistemas educativos de países diversos (Estados Unidos, España, Perú, Chile y Costa Rica). Asimismo, se incorporan ejemplos de casos reales ocurridos en escuelas, discutiendo cómo intervinieron las autoridades, los docentes y los padres de familia para afrontar este problema emergente.

Dilemas éticos alrededor de este delito

Si bien esta tecnología tiene potenciales usos positivos (por ejemplo, en entretenimiento, simulaciones educativas o recreación histórica), su empleo malicioso conlleva serios dilemas éticos:

1. Violación de la privacidad y dignidad, la creación de imágenes o videos falsos íntimos de una persona sin su consentimiento constituye una grave transgresión a su privacidad y honra. Las víctimas – a menudo mujeres jóvenes – ven cosificada e instrumentalizada su imagen personal, sufriendo humillación pública​ (Gerente, 2025).

2. Engaño y erosión de la confianza, los deepfakes, al hacer indistinguible la verdad de la falsificación, introducen el engaño deliberado en las relaciones. En contextos educativos, esto mina la confianza entre estudiantes y docentes. Un caso ilustrativo ocurrió en la Universidad de Bentley (EE.UU.), donde un ex alumno difundió un video deepfake difamatorio de un profesor, haciéndolo parecer que emitía comentarios ofensivos​. (Tesluk,2023).

3. Ciberacoso y bullying amplificado, la capacidad de crear contenido hiriente falso potencia formas de acoso escolar. Antes, un rumor o insulto podría dañar la reputación de un alumno; ahora, con un deepfake, es posible fabricar “pruebas” visuales o sonoras para ridiculizar o vejar a alguien. Este bullying 4.0 puede ser devastador. Un artículo de prensa chileno describió el deepfake como “el nuevo rostro del bullying en las escuelas”, señalando que combatir el acoso digital requiere una aproximación integral de educación, regulación y tecnología​ (Lewin, 2025).


4. Integridad académica y veracidad, si bien menos reportado, existe preocupación de que los deepfakes pudieran ser usados para trampos académicas o fraudes. Por ejemplo, suplantar la voz o imagen de alguien para hacer trampa en exámenes orales, o falsificar declaraciones de científicos/profesores para manipular datos. En escenarios disciplinarios o legales escolares, un estudiante infractor podría alegar que un video que prueba su falta es falso (como ya ocurre con criminales que proclaman que evidencias en su contra fueron fabricadas)​.

Desafíos legales y regulatorios en diferentes contextos educativos

El ordenamiento jurídico internacional enfrenta lagunas al abordar los deepfakes, dado lo novedoso y rápido de esta tecnología. Sin embargo, en los últimos años han surgido esfuerzos regulatorios, con marcadas diferencias entre países desarrollados y Latinoamérica, para tipificar y sancionar los usos ilícitos de deepfakes, así como para actualizar normas escolares de convivencia. A continuación, se examinan las respuestas legales y de política educativa en distintas jurisdicciones.

En Estados Unidos a nivel federal no existe una ley integral específica sobre los deepfakes, sin embargo, se han introducido proyectos en el Congreso, como el DEEP FAKES Accountability Act (2019), orientado a requerir divulgación de contenido sintético y penalizar deepfakes usados para dañar reputación o interferir en elecciones​. Hasta la fecha son nueve estados han promulgado leyes contra ciertas modalidades de deepfake (GDA,2025)

En este contexto educativo la principal novedad legal es la actualización de la normativa Title IX en 2024. Title IX prohíbe la discriminación sexual en instituciones educativas federales, y en las reglas recientes el Departamento de Educación explicitó que “la distribución no consensuada de imágenes íntimas, incluidas aquellas alteradas o generadas por IA, constituye acoso sexual​”. (Altieri, 2024) 

Es decir, un deepfake sexual ahora activa los protocolos Title IX: la escuela tiene la obligación legal de intervenir aunque el hecho ocurra fuera del campus si crea un ambiente hostil que afecta a la víctima en la escuela​. Esta acción vino motivada por la oleada de incidentes de “pornografía falsa” entre alumnos. De hecho, en 2023-2024 se registraron múltiples casos en colegios de EE.UU. donde estudiantes (en su mayoría varones adolescentes) editaron con IA fotos de compañeras para hacerlas lucir desnudas y las compartieron​.

En la práctica, algunas escuelas han comenzado a sancionar severamente estos actos. Por ejemplo, en Beverly Hills (California) en 2024, un grupo de alumnos de 8vo. grado creó y difundió fotos falsas de 16 compañeras superponiendo sus caras en cuerpos desnudos; el distrito escolar decidió expulsar a cinco estudiantes involucrados​ (Garcia, 2024).

Un informe de 2024 del Center for Democracy & Technology reveló que un 15% de estudiantes de secundaria en EE.UU. supieron de deepfakes sexuales circulando en su escuela, pero solo 10% dijeron que su colegio ofrecía algún tipo de apoyo o guía a las víctimas​.

La Unión Europea ha adoptado una postura más preventiva y unificadora,  la UE trabaja en la primera normativa integral sobre IA (AI Act) que incluirá disposiciones de transparencia para contenidos sintéticos. El borrador del AI Act (previsto para entrar en vigor en 2024-2025) establece que cualquier contenido audiovisual generado o alterado por IA debe ser identificado claramente como tal (por ejemplo, mediante marcas de agua o etiquetado)​  (Colman, 2025).

España destaca por una iniciativa pionera en 2023–2025: el Gobierno de Pedro Sánchez incluyó en un proyecto de Ley de protección de menores en entornos digitales una reforma penal contra las “ultrafalsificaciones” obtenidas con IA​ (Gerente, 2025)

El detonante para esta acción legal en España fueron sonados casos como el de Almendralejo (Extremadura): en 2023 se descubrió que padres de veinte alumnas adolescentes denunciaron la circulación de fotos falsas donde sus hijas aparecían completamente desnudas, generadas mediante una app de deepfake (Jondec et al., 2024)

Las imágenes se propagaron por WhatsApp, causando conmoción nacional al evidenciar la facilidad con que se podía victimizar sexualmente a menores con IA. Este “escándalo en un pequeño pueblo de España” – ampliamente cubierto por la prensa y la BBC​- fue un catalizador para endurecer las leyes. Asimismo, el caso motivó campañas educativas: la Policía Nacional y organizaciones como Maldita.es lanzaron charlas en colegios sobre los peligros de las ultrafalsificaciones y cómo identificarlas. 

Otros países europeos han seguido sendas similares: en Reino Unido, si bien no existe una ley específica aún, desde 2015 es delito la difusión de imágenes sexualmente explícitas sin consentimiento (revenge porn), y se espera que una reforma legal en 2023 incluya explícitamente las imágenes falsas generadas con IA bajo esa categoría​. En Alemania y Francia, los deepfakes pueden perseguirse bajo delitos de difamación o suplantación de identidad, pero se discute su reforzamiento legislativo. 

En síntesis, Europa avanza hacia un marco legal más claro: obligaciones de etiquetado a nivel UE para prevenir el fraude audiovisual, complementadas con penas nacionales para castigar los deepfakes más lesivos a la reputación o la intimidad. 

En Latinoamérica, la penetración de los deepfakes ha sido más reciente y la respuesta normativa aún es incipiente. No obstante, algunos países han empezado a reaccionar ante casos concretos, generalmente adaptando figuras legales existentes (p.ej. delitos de pornografía infantil, injurias, violencia digital) debido a la ausencia de leyes específicas. 

También se observa un rezago en la preparación de los colegios para enfrentar estas situaciones, aunque hay ejemplos de intervenciones de autoridades educativas y padres de familia. Examinemos tres contextos: Perú, Chile y un enfoque centroamericano ejemplificado en Costa Rica.

Actualmente Perú no cuenta con legislación penal específica sobre deepfakes, conductas como la creación de pornografía falsa con menores se persiguen bajo los tipos penales ya existentes de pornografía infantil, acoso sexual o contra la intimidad. 

Un hecho ocurrido en 2023 visibilizó el problema: en agosto de ese año se descubrió que dos estudiantes (13 y 14 años) de un prestigioso colegio privado en Lima habían manipulado con IA fotos de al menos 12 compañeras de colegio para generar imágenes desnudas y las vendían a otros alumnos (Jodec et all, 2024).

Este caso generó gran repercusión mediática y social en Perú. Los padres de las menores afectadas denunciaron el hecho, que fue inicialmente investigado por la Fiscalía de Familia de Lima.​ El Ministerio de la Mujer y Poblaciones Vulnerables emitió un comunicado condenando la violencia digital ocurrida y exhortando a sancionar a los responsables.  (Caipillán, 2023) ​

Finalmente, la sanción escolar fue la expulsión definitiva de los involucrados, anunciada tras indagaciones internas y en coordinación con las autoridades educativas. Este episodio puso de relieve la falta de protocolos claros: inicialmente la institución fue criticada por demorar en denunciar a Fiscalía y por entrevistar reiteradamente a las víctimas (lo que se consideró revictimizante)​ (Jodec et all, 2024).

​Chile sufrió uno de los casos más notorios de deepfakes escolares en Latinoamérica, lo que ha derivado en respuestas tanto legales como institucionales. En febrero de 2024, alumnos de un exclusivo colegio de Santiago utilizaron IA para crear fotomontajes desnudos de 7 compañeras de curso​.

La dirección del colegio inicialmente canceló la matrícula (expulsión) de varios responsables, pero luego, considerando su arrepentimiento y trayectoria previa, redujo la sanción a matrícula condicional.

Esta decisión indignó a las familias de las víctimas, que acusaron al colegio de no seguir los protocolos de convivencia y sexualidad, y de anteponer su imagen institucional sobre el bienestar de las alumnas​  (Molina, 2024). Finalmente, en febrero de 2025 la Corte Suprema de Chile se pronunció: si bien revirtió la orden de expulsión de la Corte de Apelaciones, fue para respaldar el procedimiento original del colegio según su reglamento interno​ (Delgado, 2024)

Esta situación impulsó a nivel educativo al Ministerio de Educación chileno a instar a los colegios a reforzar sus protocolos contra violencia de género y ciberacoso. La Superintendencia emitió en 2024 una circular recordando la obligación de denunciar inmediatamente a Fiscalía cualquier abuso sexual (físico o virtual) contra estudiantes​

En los países centroamericanos no se han divulgado casos de deepfake en escuelas con la magnitud de los antes mencionados; sin embargo, las autoridades comienzan a prepararse ante esta amenaza. Costa Rica en 2023 emitió alertas públicas sobre estafas y fraudes empleando videos deepfake, y enfatizó la importancia de la educación y concienciación ciudadana al respecto​

El foco inicial en la región ha estado en los delitos cibernéticos: Costa Rica y Panamá han advertido del uso de voces e imágenes falsas en “secuestros virtuales”  o llamadas en las que estafadores imitan la voz de un familiar pidiendo dinero.(Sulima & Hautala, 2023)En la práctica educativa centroamericana, la prevención y la alfabetización digital son las estrategias primordiales frente a los deepfakes. Organismos no gubernamentales y medios locales han instado a incluir la temática en los planes de estudio. Por ejemplo, el diario costarricense El Financiero destacó la urgencia de enseñar a niños y jóvenes a identificar deepfakes, indicando que “las campañas de educación pública y concienciación juegan un papel vital en ayudar a las personas a reconocer contenido sintético”.

Herramientas y tecnologías actuales para la detección de deepfakes

Los avances recientes en inteligencia artificial han dado lugar tanto a la creación de deepfakes como a herramientas para detectarlos. En general, los métodos de detección se basan en identificar anomalías sutiles en imágenes, videos o audios que delaten la manipulación. Por ejemplo, el uso de redes neuronales profundas permite entrenar modelos que distingan entre contenido real y sintético a partir de grandes conjuntos de datos. Estos algoritmos especializados analizan detalles como expresiones faciales, movimientos corporales o patrones de voz en busca de incoherencias que puedan indicar la presencia de un deepfake​. A continuación, se presentan algunas de las herramientas de detección más utilizadas actualmente:

– Deepware 

– Sensity

– Hive AI Detector

– Illuminarty

Estrategias pedagógicas para enseñar a identificar contenido manipulado

Dado que los deepfakes constituyen esencialmente una forma de desinformación visual o audiovisual, su detección no solo recae en expertos y software: es imprescindible formar a los estudiantes (y también a los educadores) en habilidades de alfabetización mediática para que desarrollen un “ojo crítico” frente a lo que consumen en línea. Investigaciones recientes revelan que un porcentaje significativo de la población estudiantil –e incluso muchos docentes– tienen dificultades para discernir entre contenido real y contenido sintético. 

Por ejemplo, un estudio de 2023 halló que entre 27% y 50% de los participantes (abarcando estudiantes secundarios, universitarios, profesores y adultos en general) no lograban distinguir videos auténticos de deepfakes, y que los adultos (incluidos los educadores) resultaron ser más susceptibles al engaño que los propios alumnos jóvenes​ (Doss et al., 2023)

La misma investigación advierte que la exposición prolongada a deepfakes sin una intervención educativa aumenta la vulnerabilidad, volviendo más perniciosos sus efectos en ausencia de capacitación para detectarlos. Estos hallazgos subrayan la necesidad de implementar estrategias pedagógicas proactivas en las escuelas y universidades.

Algunas estrategias pedagógicas recomendadas incluyen:

Integrar la alfabetización mediática en el currículo: Incluir de forma explícita en los planes de estudio contenidos sobre desinformación digital y deepfakes. Esto puede realizarse en clases de informática, tutoría o  proyectos multidisciplinares. El objetivo es que los alumnos comprendan cómo se puede manipular la información digital y conozcan los riesgos asociados. Por ejemplo, subrayar que un deepfake es, en esencia, una forma de mentira digital sofisticada, y discutir con los estudiantes casos reales donde noticias falsas fueron propagadas mediante videos alterados.

Enseñar métodos de verificación básicos, usar recursos didácticos y ejercicios prácticos : Así como se enseña a evaluar la confiabilidad de una fuente escrita, se debe enseñar a los jóvenes a verificar contenido multimedia. Frameworks desarrollados por organizaciones especializadas pueden ser útiles. Por ejemplo, instituciones educativas culturales como NewseumED ofrecen “10 consejos para detectar manipulación mediática” que los estudiantes pueden aplicar​ (teachers first.com). Estas guías sugieren pasos como examinar cuidadosamente los detalles visuales, comprobar la fuente original del video o imagen, buscar reportes en otros medios, y reflexionar si el contenido pudiera haber sido alterado. Entrenar a los alumnos en seguir estos pasos con cada contenido sorprendente que encuentren crea un hábito de verificación.Asimismo, se pueden organizar debates o proyectos donde los alumnos, en equipo, analicen un video dudoso y presenten sus conclusiones sobre su autenticidad, fomentando el aprendizaje colaborativo y crítico.

Énfasis en señales técnicas reveladoras: Los docentes deben informar a sus estudiantes sobre qué indicadores observar en un video o imagen para sospechar de su autenticidad. Pistas como un parpadeo poco natural (los deepfakes antiguos solían fallar en recrear patrones normales de pestañeo), sincronización labial extraña con el audio, expresiones faciales rígidas o transiciones bruscas en los fotogramas pueden delatar un montaje ​(es.weforum.org). Del mismo modo, inconsistencias en la iluminación o reflejos y discrepancias entre la edad aparente de la piel de un rostro versus su cuello o manos, son señales de posible falsificación. Al enseñar estas pistas, es importante recalcar que ninguna es absoluta –pues la tecnología evoluciona–, pero juntas proveen un conjunto de alertas tempranas para dudar de la veracidad de un contenido. Un ejercicio pedagógico efectivo es mostrar a los alumnos ejemplos de imágenes adulteradas donde deben encontrar estos “errores” o incoherencias, afinando su capacidad de observación.

Discusión ética y desarrollo del escepticismo saludable: Más allá de la técnica, es crucial educar en la actitud. Los estudiantes deben comprender el poder que tiene un deepfake para engañar y el daño que puede causar (por ejemplo, arruinar la reputación de alguien con un video falso). Desarrollar un “escepticismo saludable” implica que ante cualquier contenido sorprendente o escandaloso, el joven aprenda a preguntarse “¿podría ser falso?” en lugar de aceptarlo y compartirlo de inmediato. Los docentes pueden fomentar este pensamiento crítico discutiendo con la clase noticias virales y examinando colectivamente su veracidad. También es útil incluir reflexiones sobre la ética: por qué crear o difundir deepfakes dañinos está mal, cómo distinguir el uso positivo de estas tecnologías del uso malicioso, etc. Cuando los alumnos entienden el trasfondo ético, desarrollan una consciencia que los hace menos propensos a creer y difundir contenido manipulado sin cuestionarlo.

Capacitación de los propios educadores. Programas de formación continua o talleres para docentes sobre desinformación y deepfakes les ayudarán a ellos mismos a mantenerse actualizados. Esto es vital, ya que estudios señalan que muchos profesores y directivos pueden ser incluso más vulnerables que los estudiantes jóvenes a creer en deepfakes si no han recibido orientación al respecto ​(Challenger Center, 2022). Una comunidad educativa bien informada y alerta actúa como primera línea de defensa: los docentes capacitados pueden a su vez detectar antes un posible deepfake circulando entre alumnos y convertirlo en una oportunidad de aprendizaje en lugar de dejar que cause estragos. En síntesis, inculcar una cultura educativa de verificación y pensamiento crítico, apoyada en herramientas y recursos contemporáneos, preparará mejor a los estudiantes de secundaria y educación superior para enfrentar el desafío de los deepfakes en la vida real.

Conclusiones

Los deepfakes representan un desafío multidimensional para la educación, poniendo a prueba los marcos éticos, la capacidad de respuesta de las instituciones y la adecuación de las leyes vigentes. 

A lo largo de este artículo hemos visto cómo la tecnología, cuando es mal utilizada, puede vulnerar la intimidad, propiciar el acoso y socavar la confianza en el entorno educativo. 

Asimismo, el análisis comparativo revela diferencias notables entre los enfoques de países desarrollados y los de América Latina, aunque también confluencias en la preocupación global por abordar el fenómeno.

En los sistemas educativos de EE.UU. y Europa, la reacción ha sido relativamente rápida en los últimos años: reformas legales puntuales (leyes estatales norteamericanas, normativa penal española, regulación comunitaria de IA) y medidas escolares concretas, desde expulsiones de alumnos ofensores hasta la incorporación de la alfabetización mediática en el currículo. 

No obstante, incluso en estos contextos avanzados, las escuelas se encuentran en proceso de ponerse al día. Como destacó un reporte, la mayoría de distritos en EE.UU. aún no cuenta con protocolos sólidos para ayudar a víctimas de deepfakes sexuales​, lo que indica que la política escolar va rezagada frente a la realidad tecnológica.

En América Latina, la situación es más incipiente. Países como Perú y Chile aprendieron de dolorosos casos reales, evidenciando vacíos tanto legales como procedimentales. La respuesta ha involucrado a múltiples actores: autoridades educativas, docentes y padres de familia. Su rol es crucial y complementario:

Las autoridades educativas y gubernamentales deben liderar la creación de marcos normativos actualizados y la implementación de políticas preventivas, esto implica acelerar la aprobación de leyes que sancionen el uso malicioso de deepfakes y emitir lineamientos claros a las instituciones educativas. Ministerios de Educación y organismos supervisores han de proveer guías de acción ante incidentes: cómo proceder con denuncias, asegurar apoyo psicológico a víctimas y notificar a las autoridades competentes. 

A su vez, corresponde a los gobiernos invertir en campañas masivas de concientización y en herramientas tecnológicas (por ejemplo, software de detección de deepfakes) accesibles para escuelas. Un ejemplo positivo fue la intervención del Ministerio de la Mujer peruano en el caso que se presentó en una escuela de la capital, brindando respaldo legal y psicológico a las alumnas afectadas​. Estas sinergias interinstitucionales deben fortalecerse y replicarse en otros lugares.

Los docentes y personal escolar están en la primera línea para detectar y frenar el problema en el día a día, se vuelve imprescindible capacitar a los docentes en competencias digitales y protocolos de acción. Los maestros deben saber reconocer señales de que un estudiante puede estar sufriendo (o cometiendo) abuso mediante deepfakes – por ejemplo, cambios conductuales repentinos, rumores de videos comprometedores circulando, etc. 

Asimismo, deben fomentar un ambiente de confianza donde los alumnos se sientan seguros de reportar incidentes sin temor o vergüenza.Las escuelas pueden usar casos reales vistos en las noticias como “catalizadores para conversar con los estudiantes” sobre cómo identificar un deepfake y qué hacer​.

Iniciativas pedagógicas como desafíos en clase para diseñar estrategias de verificación de contenido, o la discusión abierta sobre ética digital, empoderan a los alumnos y también a los docentes. Por último, el personal de orientación y psicología escolar juega un papel central en atender a quienes han sido afectados, evitando su revictimización y acompañándolos en la recuperación de su seguridad y autoestima.

El involucramiento de los padres de familia y tutores es vital para una respuesta integral, en muchos casos, los padres son quienes detectan primero el problema (como la madre que descubrió el deepfake en la computadora del compañero en Perú​) o quienes exigen acciones contundentes (padres chilenos que recurrieron a la justicia para asegurar sanciones efectivas​). 

Los padres deben ser educados digitalmente para comprender qué son los deepfakes y tomarlos en serio, sin minimizar su impacto con la etiqueta de “broma juvenil”. A la vez, necesitan herramientas para hablar del tema con sus hijos: establecer normas sobre el uso responsable de aplicaciones, monitorear (respetando la privacidad, pero con atención) la actividad online de los menores, y fomentar valores de respeto. 

Una de las madres de la escuela en Beverly Hills que declaró “la responsabilidad es de los padres, [ellos] deben saber en qué andan sus hijos en sus dispositivos”​ resumió una realidad: mucho del comportamiento de los adolescentes en el mundo digital depende de la orientación y límites que reciban en casa. Los padres también pueden formar redes de apoyo entre ellos para intercambiar información y apoyar conjuntamente medidas preventivas en las escuelas (por ejemplo, charlas conjuntas padres-hijos con expertos en ciberseguridad).

Enfrentar los riesgos de los deepfakes en la educación exige un enfoque interdisciplinario y colaborativo. No basta con confiar en una sola solución (sea tecnológica, legal o pedagógica); es necesaria la convergencia de esfuerzos: leyes actualizadas, escuelas proactivas y familias comprometidas.

Los países del primer mundo ofrecen valiosas lecciones sobre la urgencia de legislar y educar, mientras que los casos latinoamericanos advierten sobre las consecuencias de la demora y la importancia de adaptar dichas lecciones a contextos locales. 

A medida que la inteligencia artificial siga evolucionando, es imperativo que nuestras comunidades educativas también evolucionen en sus prácticas de prevención, ética digital y resiliencia frente a la desinformación. Solo así podremos aprovechar los beneficios de estas tecnologías emergentes en la enseñanza (que los tienen) minimizando a la vez sus perjuicios.

En última instancia, la formación en valores y el pensamiento crítico serán la mejor vacuna contra los abusos de los deepfakes: una generación de jóvenes conscientes de las implicaciones de manipular la verdad y empáticos con el prójimo difícilmente empleará estas herramientas para el mal. 

Eduquemos entonces con el ejemplo y con conocimiento, para que la revolución de la IA encuentre en nuestras escuelas espacios seguros, creativos y éticamente responsables.

Bibliografía:

Garcia, S. (2024). 5 Beverly Hills students expelled for sharing AI-generated nudes of classmates. ABC7 Los Angeles. https://abc7.com/beverly-hills-5-students-expelled-ai-generated-nudes-classmates/14505082/

Altieri, C. (2024). New Title IX rule defines deepfakes as sexual harassment. Student Privacy Compass. https://studentprivacycompass.org/new-title-ix-rule-defines-deepfakes-as-sexual-harassment/

El Gobierno cuela en su ley de protección de menores un nuevo delito para las falsificaciones «vejatorias» con IA. (n.d.). Colombia. Retrieved March 31, 2025, from https://gerente.com/co/new-rss/el-gobierno-cuela-en-su-ley-de-proteccion-de-menores-un-nuevo-delito-para-las-falsificaciones-vejatorias-con-ia/

Jondec, H., Zevallos, M., Segura, A., & Castrejon, E. (2024). El uso ilícito de las técnicas de inteligencia artificial y la necesidad de su regulación: el deepfake. Vniversitas, 73. https://revistas.javeriana.edu.co/index.php/vnijuri/article/view/39623

Molina, J. (2024). Escándalo en el Saint George: alumnos de colegio élite crearon imágenes de compañeras desnudas usando IA y las viralizaron. Interferencia. https://interferencia.cl/articulos/escandalo-en-el-saint-george-alumnos-de-colegio-elite-crearon-imagenes-de-companeras#:~:text=Siete%20alumnas%20del%20Colegio%20Saint,y%20dichas%20im%C3%A1genes%20posteriormente%20viralizadas

Delgado, F. (2025). Fotos con IA: Suprema revoca decisión y revierte expulsión de estudiantes del Colegio Saint George. https://www.biobiochile.cl/noticias/nacional/region-metropolitana/2025/02/20/fotos-con-ia-suprema-revoca-decision-y-revierte-expulsion-de-estudiantes-del-colegio-saint-george.shtml

Sulima, N., & Hautala, G. S. (2023, October 5). ‘Deepfakes’ ganan terreno en Costa Rica. El Financiero. https://www.elfinancierocr.com/opinion/deepfakes-ganando-terreno-en-costa-rica/IRLAYDKX3FESLBIHCEZZDAG2E4/story/

Doss, C., Mondschein, J., Shu, D., Wolfson, T., Kopecky, D., Fitton-Kane, V. A., Bush, L., & Tucker, C. (2023). Deepfakes and scientific knowledge dissemination. Scientific Reports, 13(1), 13429. https://doi.org/10.1038/s41598-023-39944-3


(2024). WEFORUM World Economic Forum. https://es.weforum.org/stories/2024/09/como-detectar-un-deepfake-esto-dicen-los-expertos/#:~:text=1,ver%20si%20siguen%20ritmos%20naturales


Challenger Center. (2022, August 8). Deepfake Science: How Vulnerable are Educators and Learners? Challenger Center. https://challenger.org/news-insights/deepfake-science-how-vulnerable-are-educators-and-learners/

Merod, A. (2024, February 14). Deepfakes heighten the need for media literacy in the age of AI. K-12 Dive. https://www.k12dive.com/news/how-spot-deepfakes-AI-schools-media-literacy/707438/

También te puede Interesar

Leave a Comment