Davis, Vicki. “How Do We Know Who’s Human? A New Tech Raises Big Questions.” 10 Minute Teacher Podcast, 3 de mayo de 2025. Podcast de audio. https://www.coolcatteacher.com/e898/
El 1 de mayo de 2025, Sam Altman (CEO de OpenAI y cofundador de este proyecto) lanzó oficialmente en Estados Unidos el programa World, anteriormente conocido como Worldcoin. Este proyecto consiste en instalar centros en seis ciudades estadounidenses (Los Ángeles, San Francisco, Atlanta, Nashville, Miami y Austin) donde se escanean los iris y rostros de las personas mediante dispositivos impulsados por inteligencia artificial.
A cambio del escaneo, se otorga a los usuarios una World ID, una especie de documento digital de identidad, junto con una pequeña cantidad de criptomonedas. Aunque puede parecer un incentivo atractivo, esta propuesta plantea cuestiones profundas sobre la privacidad, la ética digital y el uso de datos biométricos.
Davis explica que esta tecnología responde a tres necesidades emergentes: combatir el fraude de identidad (especialmente ante el auge de las deepfakes y las identidades sintéticas generadas por IA), verificar la edad para proteger a menores en línea (un campo en el que ya se están aplicando soluciones biométricas en países como Francia y Alemania) y garantizar que las personas que interactúan en sitios como Match.com sean reales. Esto último ha llevado a sospechas sobre por qué empresas como VISA o Match Group están involucradas en el proyecto. La autora subraya que detrás del discurso de anonimato de World hay una contradicción fundamental: si se requiere vincular una identidad digital a un perfil para eliminar fraudes, esa identidad ya no es verdaderamente anónima
Para la autora, este tema es una excelente oportunidad educativa. Plantea que la cobertura de esta noticia es un caso perfecto para enseñar alfabetización mediática, ya que existen versiones muy distintas del mismo hecho: algunos medios lo celebran como una forma de obtener criptomonedas fácilmente, mientras otros alertan sobre los riesgos para la privacidad. Davis invita a docentes, padres y estudiantes a reflexionar sobre la fiabilidad de las fuentes, los sesgos informativos y los intereses de las empresas tecnológicas. También propone usar un cartel y un documento descargable con preguntas críticas como herramientas didácticas para fomentar debates en el aula.
Davis es muy crítica con la forma en que muchas empresas, especialmente las tecnológicas, gestionan nuestros datos. Recuerda que “si algo es gratis, probablemente el producto eres tú”, y cita casos como el escaneo ocular en apps educativas, la recopilación de datos incluso en modo incógnito por parte de Google (que afronta una demanda multimillonaria) y el uso no ético del reconocimiento facial. A pesar de que World promete anonimato, su integración con empresas de citas y bancos plantea serias dudas sobre el control y uso de los datos biométricos. Además, solo el 24% de los estadounidenses confían en que las compañías tecnológicas usen sus datos de forma ética, y un 77% desconfía de los líderes de redes sociales, según encuestas citadas por la autora.
Este tipo de tecnologías y debates requieren una formación crítica que solo la educación puede ofrecer. Rechaza la idea de que la inteligencia artificial pueda sustituir la capacidad de análisis humano, y denuncia que quienes afirman no necesitar más educación porque “ChatGPT lo sabe todo” simplemente no entienden cómo funciona la IA ni por qué es peligrosa una confianza ciega en ella. En su opinión, el profesorado sigue siendo imprescindible para formar ciudadanos conscientes y capaces de pensar críticamente.