En este artículo, el Mtro. Braulio Loera Mendoza, docente del Programa UIW Global Online, explora cómo la tecnología, al personalizar cada vez más lo que vemos y consumimos, también puede limitar nuestra libertad para decidir. A través del concepto de hiperpersonalización, se analiza cómo los algoritmos influyen en nuestras decisiones cotidianas y qué implicaciones éticas tiene esto en la educación, el trabajo y la vida diaria.
Estratega ético del aula y del análisis social
En el aula de posgrado, la ética no se predica: se contextualiza.
La hiperpersonalización —aparente aliada de la eficiencia digital— se perfila hoy como uno de los rostros más complejos del capitalismo algorítmico. No se trata solo de innovación técnica o de preferencias refinadas mediante datos. Estamos ante un fenómeno que pone en juego los principios mismos de la libertad individual, la dignidad humana y la justicia informacional.
La hiperpersonalización como síntoma del nuevo orden digital
En términos generales, la hiperpersonalización se refiere al uso de big data, inteligencia artificial y machine learning para anticipar deseos individuales con una precisión casi inquietante. Pero este fenómeno no debe leerse únicamente como una estrategia de mercado: es una manifestación sistémica de lo que Karla Holloway denomina biopoder algorítmico, en el que la vida misma se convierte en insumo de cálculo predictivo (Holloway, 2021).
Como señala Srnicek (2017), las plataformas digitales ya no son intermediarias pasivas, sino “arquitecturas centrales de la organización económica y social” (p. 43). En este contexto, la hiperpersonalización actúa como la herramienta que permite maximizar el tiempo de permanencia, monetizar la atención y, sobre todo, alimentar la máquina de extracción de datos.
Capitalismo de vigilancia: el algoritmo como principio organizador
Zuboff (2019) lo advierte con contundencia: el capitalismo de vigilancia transforma los comportamientos humanos en excedentes de datos, los cuales son procesados para generar modelos predictivos que pueden venderse, ajustarse o manipularse. “La lógica del capitalismo de vigilancia se basa en la extracción de datos de comportamiento humano para la predicción y venta de ‘predicciones de comportamiento’ a terceros” (p. 8).
La pregunta ya no es si somos consumidores o usuarios, sino materia prima algorítmica. Desde una aplicación de movilidad hasta una red social universitaria, los algoritmos no solo nos siguen: nos preceden. Y ese adelantamiento de nuestra voluntad, disfrazado de eficiencia, erosiona las condiciones mismas de la agencia moral.
¿Tecnología emancipadora o ingeniería del consentimiento?
Desde el aula, urge una pedagogía que no idealice ni demonice la tecnología, sino que la comprenda en su complejidad estructural. El filósofo surcoreano Byung-Chul Han (2022) advierte que el exceso de positividad en las interacciones digitales impide el conflicto, elemento esencial del pensamiento crítico: “La hipervisibilidad del sujeto lo convierte en un objeto controlado” (p. 37). En ese sentido, la hiperpersonalización no solo sugiere, sino delimita lo que creemos desear.
Más allá de la eficiencia, esta lógica plantea dilemas éticos que los docentes debemos traducir a preguntas movilizadoras para nuestros estudiantes:
- ¿Qué capacidades humanas se ven reforzadas —o disminuidas— cuando un algoritmo decide por nosotros?
- ¿Qué tipo de ciudadanía estamos cultivando si evitamos permanentemente el disenso mediante filtros personalizados?
- ¿Cómo afectan estas prácticas a la cohesión interna de las organizaciones educativas y financieras?
Educar desde la conciencia crítica
En un país como México, donde la transformación digital se entrecruza con profundas desigualdades estructurales, el debate sobre la hiperpersonalización debe ser también una reflexión sobre justicia digital. La ética organizacional —entendida como una práctica concreta y no como discurso decorativo— requiere marcos que protejan al individuo sin detener la innovación.
Nuestra tarea como profesores de posgrado es formar profesionales capaces de ver detrás de la interfaz, que comprendan no solo el “cómo” de la tecnología, sino el “para qué” y “para quién” se desarrolla. Y sobre todo, que sean conscientes de que la tecnología no es neutral: es un campo de disputa simbólica, política y moral.
Referencias
- Han, B.-C. (2022). La desaparición de los rituales: Una topología del presente. Herder Editorial.
- Holloway, K. (2021). Code of Desire: Racial Interpellation, Algorithmic Flesh, and the Ethics of Biotechnical Identities. Duke University Press.
- Srnicek, N. (2017). Platform Capitalism. Polity Press.
- Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.


