Proyecto de nivelación
2ª Oportunidad

Toma de decisiones
Licenciatura
Objetivo
Evaluar la capacidad de los estudiantes para aplicar marcos teóricos de toma de decisiones, riesgo y ética a un dilema complejo de la vida real que involucra tecnología, seguridad nacional y libertades civiles.
Conoce los requisitos de la actividad
A continuación, te presentamos tu proyecto extraordinario; utiliza las tres pestañas para conocer los detalles de tu actividad, los recursos de apoyo y la rúbrica de evaluación.
Aquí encontrarás los detalles de la actividad por realizar.
¿Qué haré?
Para realizar este proyecto apóyate con los siguientes temas:
Semana 2, tema 9: Las decisiones, el riesgo y la ética, tema 10: Las decisiones y la objetividad
Lee atentamente las instrucciones y realiza lo que se solicita.
CasoCaso: “Dilema de la Vigilancia Masiva (Big Data)”
Juan Escutia, durante su época de como estudiante de ingeniería salía con Mariana quien tenia un ex novio posesivo y peligroso quien filtro imágenes intimas de ella, a raíz de esa situación su novia empezó a tener problemas de acoso debido a las imágenes divulgadas. Esta situación hizo a Juan más consiente de los problemas de las redes sociales y la detección de delitos por lo cual empezó a trabajar en desarrollar un software de detección de presuntos posibles ataques como: tiroteos en escuelas, secuestros, difusión de contenido sensible, detección fraudes entre otros delitos que podrían detectarse dentro de las redes sociales como Facebook, Twitter (ahora X), Instagram, Snapchat entre otras futuras redes que pueden surgir.
En su época como colaborador en una empresa de seguridad globalizada, encontraron dentro del portafolio de trabajos del software de seguridad en redes sociales, la empresa al ver el gran potencial del proyecto, le propone Juan Escutia en mejorar ese sistema en base de algoritmos de Inteligencia Artificial (IA) que sean capaces de predecir la probabilidad de que una persona cometa un delito violento o actos de terrorismo e incluso detección de fraudes bancarios, basándose en su actividad en línea (comentarios, búsqueda, historial de compras, ubicación real, etc.)
Juan al creer que era una gran idea para detección de amenazas comienza a trabajar en mejorar el prototipo con el que había comenzado.
Un mes después del desarrollo de la base de datos, comenzaron a realizar las primeras pruebas y con ello los primeros datos recolectados de una pequeña población de una ciudad, se detectó una posible amenaza de secuestro de un menor de edad gracias al perfil de posible secuestrador que usaron como prueba.
El Gobierno le exige a la empres y a Juan por medio de una queja que entregue los datos de vigilancia y los resultados predictivos del algoritmo en tiempo real para detener posibles amenazas antes de que ocurran.
- Decisión:
La empresa y Juan Escutia deben tomar la decisión sobre colaborar plenamente con el Gobierno, comprometiendo la privacidad de millones de usuarios, o si se niegan a entregar podrían ser acusados por obstaculizar la seguridad nacional.
Decisión de Gobierno: el gobierno debe decidir si el beneficio de la seguridad pública proactiva justifica la erosión de las libertades civiles y la vigilancia masiva de ciudadanos inocentes.
- Riesgo de la Seguridad Pública (Riesgo Físico): el riesgo de no actuar es que se cometa un ataque o un delito grave que podría haberse evitado.
- Riesgo Social y Político: El riesgo de actuar es la destrucción de la confianza pública, el abuso de datos, la creación de un estado de vigilancia permanente y el riesgo de que el algoritmo se utilice para persecuciones políticas o discriminación
- “falso positivo”: existe un riesgo técnico alto de que el algoritmo etiquete erróneamente a un usuario inocente como amenaza (un falso positivo), lo que podría llevar a su detención, interrogatorio o incluso en lista de vigilancia.
- Ética:
Este caso se centra en la tensión entre dos principios éticos fundamentales:
Ética Utilitarista (seguridad): la decisión de salvar la mayor cantidad de personas del daño. Si la vigilancia salva una vida, ¿justifica la invasión de la privacidad de miles?
Ética Deontológica (derechos): la vigilancia masiva viola el deber de representar la autonomía y la privacidad de cada individuo, independiente mente del beneficio colectivo. Los derechos individuales son absolutos y no pueden sacrificarse por la seguridad.
Ética de la IA: ¿es ético delegar decisiones de vida o muerte (o de libertad) a un algoritmo cuya lógica es opaca (“caja negra”) y que puede estar sesgado contra ciertos grupos sociales?
- Objetividad
Objetividad del algoritmo: el algoritmo esta diseñado para ser objetivo al procesar datos sin emociones ni sesgos humanos.
Falsa Objetividad: sin embargo, los datos con los que se entrenan al algoritmo están sesgados (por ejemplo, el entrenamiento proviene de zonas donde la policía históricamente ha vigilado más ciertos grupos), el resultado será discriminatorio, aunque la maquina “actúe objetivamente” según su Código.
La interpretación: la objetividad de los datos (un puntaje de riesgo de 95%) choca con la subjetividad de la aplicación (¿Qué nivel de riesgo justifica detener a alguien antes de que haya cometido algún delito?).
Resuelve
El estudiante deberá redactar un reporte de análisis estructurado respondiendo a las preguntas planteadas en las siguientes secciones.
Sección 1: Análisis de la Decisión y la Gestión del Riesgo
- Decisión de la Empresa y Juan Escutia:
- Basándose en un Análisis Costo-Beneficio (no financiero, sino social/legal), identifique las dos principales opciones de decisión. Para cada opción (Colaborar plenamente vs. Negarse/Negociar), liste las consecuencias directas (los «costos» y «beneficios») a corto y largo plazo para la empresa, Juan Escutia y los usuarios.
- Proponga una tercera vía o decisión alternativa que intente mitigar tanto el riesgo de seguridad nacional como la erosión total de la privacidad. ¿Qué tan viable es esta opción?
- Análisis de Riesgo:
- De los tres riesgos presentados (Riesgo Físico, Riesgo Social y Político, Falso Positivo), ¿cuál considera que es el riesgo más inminente y por qué?
- El riesgo de «falso positivo» es inherente a la tecnología. Explique cómo un plan de acción para un «falso positivo» (la detención de un inocente) podría ser diseñado para minimizar el daño irreparable a la persona y a la confianza pública.
Sección 2: El Dilema Ético y los Principios de la IA
- Aplicación de Marcos Éticos:
- Argumento Utilitarista: Construya el argumento más sólido posible a favor de la colaboración total con el Gobierno, basado estrictamente en el principio de buscar el mayor bien para el mayor número de personas. Identifique cuál sería el sacrificio aceptado.
- Argumento Deontológico: Construya el argumento más sólido posible para negarse a la colaboración total, basado estrictamente en el principio de los derechos y deberes individuales (privacidad y autonomía). Identifique el deber que se considera absoluto.
- Ética de la Inteligencia Artificial (IA):
- Discuta la ética de delegar decisiones de seguridad crítica a un algoritmo de «caja negra». ¿Qué principio ético de la IA se viola cuando la lógica de una decisión (ej. un puntaje de riesgo) es opaca? Proponga una medida de transparencia o explicabilidad (XAI) que Juan Escutia podría implementar para abordar esta preocupación ética sin comprometer la efectividad del sistema.
Sección 3: Objetividad vs. Falsa Objetividad en el Algoritmo
- La Falsa Objetividad:
- Analice la frase: “los datos con los que se entrenan al algoritmo están sesgados, el resultado será discriminatorio, aunque la máquina ‘actúe objetivamente’ según su código.” Utilizando un ejemplo hipotético (ej. un algoritmo entrenado en datos de vigilancia policial en un área específica), explique cómo el sesgo histórico se codifica y se perpetúa a través de la objetividad matemática del algoritmo.
- La Interpretación Subjetiva:
- El caso plantea que la objetividad del dato (un puntaje de riesgo del 95%) choca con la subjetividad de la aplicación. ¿Qué parámetros o métricas debería establecer el Gobierno (o un organismo regulador independiente) para pasar de un puntaje de riesgo «objetivo» a una acción policial «justificada»? Considere los errores de Tipo I (Falso Positivo) y Tipo II (Falso Negativo) en su respuesta.
*No olvides mencionar los puntos importantes sobre este tema.
Para elaborar tu proyecto se recomienda utilizar la herramienta: Canva.
– PortadaExtensión: Mínimo 1000 palabras (aproximadamente 3-4 cuartillas).
Estructura: Seguir las tres secciones y preguntas numeradas.
Nivel: Lenguaje académico, utilizando la terminología específica de los temas cubiertos (utilitarismo, deontología, falso positivo, objetividad, riesgo).
Criterios de Evaluación: Claridad conceptual, solidez de los argumentos, aplicación correcta de los marcos de decisión y ética, y pensamiento crítico en las propuestas de soluciones.
- Para la realización del proyecto debes considerar lo siguiente:
- El trabajo debe ser original y redactado con tus propias palabras. Investiga, lee y analiza la información; posteriormente realiza tu proyecto.
- Recuerda utilizar los recursos gráficos y textuales de manera correcta, no saturando con información e imágenes el trabajo.
- Ilustraciones coherentes al contenido
- Referencias bibliográficas. Utiliza dos fuentes confiables de información
Conclusión del proyecto-Aparecer en el video.
-Mencionar brevemente el nombre completo, matrícula, materia y oportunidad.
-Portar vestimenta formal.
-Utilizar un lenguaje adecuado y cuidar que la dicción sea clara y pausada.
-El audio debe ser claro, volumen adecuado y sin interrupciones auditivas.
-Claridad de imagen, bien definida y luz suficiente.
-Duración de uno a dos minutos. Para elaborar el video puedes hacer uso de aplicaciones para video presentaciones y screen recorder, a través de PC o dispositivos móviles.
Explora los recursos que te apoyarán en la realización de tu proyecto.
¿Cómo realizar tus extraordinarios?
¿Cómo realizar tu video?
Catálogo de recursos

