1. Resumen El trabajo propuesto presenta el levantamiento y análisis de cuatro emociones de personas con Síndrome de Down (SD), disgusto, felicidad, tristeza y sorpresa, en función de sus expresiones faciales, tomando como referencia el Sistema de Código de Unidades Faciales, planteado por Paul Ekman, el cual se basa en el estudio universal de los movimientos de los músculos del rostro, conocidos como Unidades de Acción (AUs). Para el presente estudio se levantó una base de datos de imágenes de personas con SD, tomadas de la web con acceso libre. La herramienta utilizada para realizar la obtención de características fue Open Face 2.0, la que dispone de código abierto para desarrollo de temas de investigación. Se analizó la estadística de activación de 18 AUs a través de la función densidad de probabilidad (PDF) para obtener la aproximación teórica existente a través de la relación Kullback Leibler Divergence (KLD), tomando en cuenta que una emoción está formada por una o varias AUs. Fueron obtenidos histogramas de frecuencia relativa de la activación de cada AU y se realizó su evaluación estadística para determinar la PDF teórica a la que corresponde, lo que permite disponer una base de datos para el estudio de emociones de personas con SD en futuros trabajos que utilizan inteligencia computacional. 2. Introducción Para que los seres humanos se desarrollen en cualquier actividad, necesitan comunicarse e interactuar con el mundo que los rodea, siendo las emociones un medio que permite establecer y mantener relaciones sociales. El rostro es un importante canal de comunicación no verbal (Baltrusaitis,2018), existen regiones muy significativas cuando se muestran emociones: la boca, las cejas y los ojos (Bettadapura, 2012). Las expresiones faciales revelan la intención, muestran afecto, expresan emoción y ayudan a regular los turnos durante la conversación (Ambady, 1992)(Ekman, 1982). Al hablar de sistemas automáticos de reconocimiento de expresiones faciales, podemos mencionar las siguientes etapas: detección de cara, extracción de características, aprendizaje del sistema y clasificación de la expresión (Wu, Fu, Yang, 2012). En 1998 T. Kanade y H. Schneiderman desarrollaron un algoritmo de detección de objetos usando métodos estadísticos, que permitieron la detección del rostro, independientemente de su posición es decir podía estar de frente, hacia la izquierda o derecha, etc) (Schneriderman, Kanade, 2004). En el 2001 P. Viola y M. Jones desarrollaron un método que permite detectar objetos en tiempo real, basado en un algoritmo de aprendizaje en cascada (Viola, 2001). En la actualidad se está utilizando modelos parametrizados, que usan un conjunto de polígonos para formar una malla que se superpone a las caras y se adapta a ellas. Paul Ekman y Wallace V. Friesen desarrollaron en 1978 el Sistema de Codificación de Acción Facial (FACS), una herramienta que permite la descripción objetiva de las expresiones faciales características para cada emoción (6 emociones básicas o también llamadas primarias: alegría, tristeza, miedo, disgusto, asco, sorpresa), pues cada una tiene un patrón de respuesta fisiológico específico y reconocido en todas las culturas y por todas las personas. Basado en la detección de cambios que se producen en el rostro con las acciones de los músculos faciales, a estas acciones se les denomina AUs (Ekman, 2006), y se definieron 46 AUs basados en estudios psicológicos. Dentro de FACS también se puede hablar de 5 niveles de intensidad para la emoción. Cada emoción está formada por una combinación de AUs. 3. Metodología La información obtenida para realizar el levantamiento de imágenes de emociones de personas con SD, fue extraída de la web, tomando en cuenta que sean de libre acceso. Para el procesamiento de los datos con el objetivo de extraer características se utilizó la herramienta Open Face 2.0, capaz de detectar hitos faciales con precisión, reconocer unidades de acción facial, estimar la postura de la cabeza y la posición de la