ARRAY DIINF 2022

Keynote 1

09:40 hrs - 11:20 hrs

avatar

Dr. Marcio Dorn

Bio: Profesor del Instituto de Informática de la Universidad de Río Grande do Sul, Brasil. Director del Laboratorio de Bioinformática y Biología Computacional SBXBLab

Keynote 2

14:00 hrs - 15:20 hrs

avatar

Dr. Chirag Shah

Bio: Dr. Shah es Professor en la Information School (iSchool) de la Universidad de Washington (UW) en Seattle. También es Profesor Adjunto en Paul G. Allen School of Computer Science & Engineering y en el Human Centered Design & Engineering (HCDE). Leer más

Primer ciclo de charlas

11:30 hrs - 13:00 hrs

"La instalación de avanzados observatorios astronómicos en Chile y la reserva del 10% de horas de observación para astrónomos chilenos, implicará importantes desafíos en torno a los softwares que deberán ser capaces de almacenar, procesar y enriquecer una enorme cantidad de datos capturados. Estos datos se deben enfrentar a la resolución de la siguiente problemática: la reconstrucción de imágenes debe ser más rápida y capaz de adaptarse y adecuarse a las mediciones obtenidas. Solo se puede obtener una imagen del cielo si la función de autocorrelación ha sido completamente muestreada. Dada esta problemática, cabe preguntarse: dado que no es posible obtener la imagen original, ¿existe alguna forma de estimar o reconstruir la imagen? Las redes neuronales convolucionales han sido utilizadas para resolver el problema de la reconstrucción de imágenes en otras áreas como las imágenes médicas y la reconstrucción de imágenes a través de eliminación de ruido. Por estas razones, esta investigación propone un nuevo modelo de red neuronal artificial de autocodificador para la restauración de imágenes de interferometría. Concretamente, se proponen 19 arquitecturas basadas en investigación experimental, obteniendo una arquitectura con un error RMSE de 0.001497. Además, se ha comprobado que esta arquitectura infiere una deconvolución en 1.5 milisegundos a diferencia de 25671.82 milisegundos en el caso de CLEAN y 104582.44 en el caso de MEM. Las pruebas realizadas sobre un conjunto de datos de pruebas concluyeron que en promedio el PSNR es −0.53 decibelios en comparación al algoritmo CLEAN. Sin embargo, la redse comporta de manera más robusta que este algoritmo. También se concluyó que en promedio la red es 2.5 decibelios más alto que las imágenes resultantes del algoritmo MEM y en promedio 2.31 decibelios que la Dirty Image."

"Los algoritmos de optimización multiobjetivo producen un conjunto de soluciones que son incomparables entre si en términos de la calidad de solución. En algunos problemas, la relación entre el espacio de decisión y el espacio objetivo no garantiza que soluciones distantes en un espacio serán también distantes en el otro. Esto significa que soluciones en una frontera de Pareto pueden ser similares en el espacio de decisión pero parecer muy diferentes en términos de la calidad de solución sobre el espacio objetivo. Estudiamos esta relación al ser aplicada sobre el problema de clustering multiobjetivo, observando que en efecto, la información de un espacio es insuficiente para explicar su correspondencia en el otro. El algoritmo NSGA-II es uno de los algoritmos evolutivos multiobjetivos (MOEA) más populares al emplearse en una amplia variedad de problemas, en particular, el clustering. Las decisiones de la mayoría de sus operadores se basan únicamente en el espacio objetivo. Esto significa que bajo a la hipótesis planteada, este algoritmo no garantiza un conjunto diverso de soluciones en la frontera de Pareto. En el presente trabajo se introducen modificaciones a los operadores de NSGA-II para mejorar la diversidad de soluciones en el problema de clustering multiobjetivo de información génica. Estas modificaciones se basan principalmente en el espacio de decisión. Proponemos dos algoritmos: DNSGA-II (Diverse NSGA-II) y DMNSGA-II (Diverse Memetic NSGA-II). DNSGA-II cambia los operadores de generación de población inicial, cruzamiento, mutación y reemplaza totalmente el uso de Crowding Distance. DMNSGA-II emplea múltiples instancias de DNSGA-II en una estructura memética basada en agentes, mejorando la diversidad con una particular estrategia de comunicación. Los algoritmos fueron probados en cuatro datasets de expresión génica y sus respectivas anotaciones biológicas, en una estrategia multiobjetivo. Se hicieron pruebas estadísticas sobre 31 ejecuciones, comparando la calidad y diversidad general entre las fronteras de Pareto de cada algoritmo. Los resultados muestran que nuestras propuestas logran un mejor desempeño que NSGA-II en términos de la diversidad de soluciones. La calidad es comprometida en la mayoría de los casos en comparación con NSGA-II, pero se obtuvo un caso particular con mayor diversidad y calidad de soluciones. Los algoritmos tambien fueron comparados con otros en la literatura aplicada en la misma área, obteniendo mejores resultados de calidad de soluciones en nuestras propuestas."

"Los accidentes cerebrovasculares (ACV) son una preocupación a nivel mundial, tanto por sus altos índices de mortalidad, como por los grandes daños que causan en los pacientes, afectando y dificultando el retorno a sus trabajos, e incluso las actividades del día a día. Los ACV de tipo isquémicos (AIS) son causados por una obstrucción que corta el suministro de sangre a partes del cerebro. Esta obstrucción puede deberse a la formación de un coágulo de sangre en una arteria que conduce al cerebro, o en uno de los pequeños vasos del interior de este. Este tipo de ataques tienen correlación directa con el deterioro en la autorregulación cerebral (AC), pero más a grandes rasgos, en la hemodinámica cerebral (HC), dañando de forma temporal o permanente el correcto funcionamiento del cerebro. Su detección temprana es de suma prioridad, debido a que los métodos más utilizados para el tratamiento de AIS muestran mejores resultados entre las 6 y 8 horas después de ocurrido el accidente, habiendo algunos que máximo podrían llegar a funcionar correctamente luego de 24 a 48 horas. Existen diferentes formas de detectar un ACV, dentro de las cuales se encuentran el análisis de imágenes y el estudio de la AC. Las imágenes pueden ser una buena opción, pero los médicos tienen en promedio un 20% de error en el diagnóstico y, por otro lado, suelen ser procedimientos más invasivos para el paciente. Con respecto a la AC, comúnmente se analiza el deterioro que esta ha sufrido luego de un AIS mediante el cerebral autoregulation index (ARI) o transfer function analysis, ambos índices que han dado buenos resultados para pacientes graves, más no para los leves, lo que se puede explicar por el comportamiento complejo de la HC, que no logra ser captado en su totalidad por estos índices lineales. El tomar como base la teoría general de complejidad, relacionando sujetos sanos con comportamientos complejos y a los enfermos con otros más simples, haciendo uso de entropía Wavelet para obtener la complejidad estadística, es un impulsor de este trabajo. Esto, porque se han mostrado buenos resultados en investigaciones relacionadas a AC, y últimamente en HC, pero en las cuales aún no se ha trabajado con AIS leves/moderados. Esta investigación se realizará calculando la entropía y la complejidad para tres diferentes señales hemodinámicas: velocidad del flujo sanguíneo cerebral (VFSC), resistencia área-producto (RAP) y presión de cierre crítica (PCCr), en 35 sujetos sanos y 34 afectados por un AIS leve a moderado. Así, se buscará encontrar diferencias significativas entre los sujetos, considerando a los sanos y los afectados por un AIS, pero separando a estos últimos en las mediciones del lado sano de su cerebro y el lado afectado por el accidente cerebrovascular. "

Segundo ciclo de charlas

15:30 hrs - 17:00 hrs

"Phylogenetic inference methods allow proposing evolutionary hypotheses using molecular or morphological data, often representing the evolutionary relationships as phylogenetic trees. The optimisation-based inference methods attempt to find the best topologies according to a specific criterion among all the possible topologies inferred for the same dataset. It has been classified as an NP-hard problem. The literature has proposed different inference criteria: minimum evolution, least-squares, parsimony, and likelihood. Several multi-objective optimisation strategies have been published during the last decade to reduce the bias associated with the dependency on the selected criterion, improving the quality of the solutions regarding the single-optimisation approaches considering dominance. The state-of-the-art multi-objective strategies search for solutions using operators and metrics based on the objective space optimising pair of inference criteria. However, recent Works concluded that the topological features of the trees (decision space) and the objective space are not related in the multi-objective phylogenetic inference context, becoming phylogeny in a multimodal optimisation problem. This work deals with this problem by incorporating additional information from the decision space over the searching process, designing a new metric based on a topological tree distance by proposing a new multimodal multi-objective optimisation inference algorithm. This work aims to improve the diversity of the solutions according to the decision space, obtaining good solutions in terms of the optimised inference criteria. We compare the performance of the proposed strategy with state-of-the-art algorithms using classical datasets from the literature. Additionally, we thoroughly analyse a study case using yeast Saccharomyces cerevisiae aligned sequences. Results show that our proposal increases the diversity of topologies, improving the quality of solutions in terms of hypervolume and the optimised inference criteria."

>

"La neuromodulación por ultrasonido, si bien es un área prometedora dentro de la comunidad neurocientífica y biomédica, aún no cuenta con una explicación biofísica aceptada ampliamente en la literatura. Por ende, es de gran importancia el estudio y avance en este campo, con el objetivo de desarrollar alternativas no invasivas para tratamientos de patologías del sistema nervioso. En el siguiente proyecto de tesis se propone caracterizar variaciones de campo acústico y medio de propagación en simulaciones en base al modelo de cavitación intramembrana, con el objetivo de verificar si existen diferencias significativas en los umbrales de activación frente a un medio de propagación homogéneo y campo acústico gaussiano. Para esto, se propone como trabajo de investigación el diseño e implementación de un método numérico que permita la variabilidad tanto de medio de propagación como de campo acústico en las simulaciones a realizar, y que a su vez serán validados con los resultados existentes en la literatura. Posteriormente, se propone además la cuantificación del error entre umbrales de activación para los distintos casos simulados, con el propósito de notar la diferencia entre los modelos utilizados hoy en día y modelos con más nivel de detalle."

>

En el campo del análisis de sistemas fisiológicos, ha surgido gran interés por conocer la complejidad que estos poseen y la forma de determinar dicha complejidad. Una de las medidas que ha mostrado buena efectividad en este tipo de análisis es la entropía permutada, el cual permite cuantificar los niveles de complejidad de un sistema dinámico, caótico y con presencia de ruido, basándose en patrones presentes en las series temporales que produce. En este trabajo, el método se usa con diversos tamaños de patrones sobre señales de la hemodinámica cerebral obtenidas con Doppler transcraneal sobre un conjunto de 16 sujetos que son sometidos a cinco estímulos sonoros, uno de los cuales busca inducir una respuesta emocional. Como resultado se encuentran diferencias en la entropía permutada de la velocidad de flujo sanguíneo cerebral del hemisferio izquierdo del cerebro cuando se compara a la persona escuchando silencio con una canción cualquiera o con su canción preferida. En el hemisferio derecho se logra diferenciar cuando están sometidos a la canción preferida o al silencio, y entre al ruido ambiente y el silencio.

Posters y Demos

(15:30 hrs - 17:00 hrs)

Posters

Síntesis de imágenes mediante Compressed Sensing empleando Isotropic Undecimated Wavelets

La síntesis de imágenes en radio-astronomía es el proceso de generar imágenes de intensidad a partir de señales en el espacio Fourier. Los radiotelescopios reciben señales de distintas frecuencias de un objeto de estudios, las cuales son transformadas para generar imágenes que representan su forma original a través de diferentes métodos. Uno de los métodos recientes en radio-astronomía es Compressed Sensing (CS) que consiste en minimizar una función objetivo con restricciones de norma L1. Compressed sensing es aplicable cuando la imagen a sintetizar es "escasa" o "dispersa", es decir tiene muchos valores cero o cercanos a cero. También, CS es aplicable si la imagen puede hacerse dispersa en otro dominio, a través de una transformación con una base o diccionario. En particular las undecimated waveletes están siendo usadas como diccionarios en radio astronomía con buenos resultados para imágenes extendidas en el cielo, como galaxias o nebulosas. A través de la minimización se busca los coeficientes de wavelets que mejor representen la imagen original, pero que además minimicen la norma L1 de ellos. En esta investigación se busca estudiar el comportamiento de las undecimated wavelets para imágenes de discos protoplanetarios, que satisfacen mejor las condiciones para CS, pero que generalmente muestran señal en regiones compactas, y no extendidas. El método se compara con los resultados de imagen sucia, midiendo el Peak Signal to Noise Ratio (PSNR) en los residuos de ambos métodos.

Desarrollo de algoritmo multiobjetivo en metaheurísticas para inferencia filogenética libre de alineamiento de secuencias.

La inferencia filogenética (IF) permite proponer hipótesis sobre la historia evolutiva de un grupo de organismos usando sus características morfológicas o moleculares. Estas hipótesis generalmente se representan en una estructura de árbol, llamado árbol filogenético. La IF ha permitido efectuar contribuciones en diferentes áreas del conocimiento, por ejemplo, recientemente ha sido empleada para determinar el origen del virus Sars-cov-2 y su trazabilidad, permitiendo la obtención de vacunas. Computacionalmente la IF puede ser vista como un problema de optimización, en que se busca el árbol que representa de mejor manera una hipótesis evolutiva entre todas las topologías posibles dado un criterio de inferencia. Este problema ha sido clasificado como NP-complete. La mayoría de los métodos de IF utilizan como entrada secuencias alineadas de los organismos, sin embargo, este proceso es costoso a nivel computacional (NP-hard), siendo limitado al tratar grandes conjuntos de datos como genomas. Para esto la literatura ha propuesto el uso de métodos de IF libres de alineamientos, existiendo diferentes criterios de optimización, los que pueden ser conflictivos entre sí. Dado esto ¿El uso de algoritmos multiobjetivo permitirá reducir este sesgo asociado a la elección de criterios, potenciando la búsqueda de una topología representativa de la historia evolutiva de organismos en estrategias libre de alineamientos, encontrando buenas soluciones en términos del criterio de IF optimizado? Para responder esta pregunta, este trabajo en desarrollo propone reemplazar el uso de secuencias alineadas por el uso de kmers, construyendo topologías que apunten a optimizar los criterios de evolución mínima (ME) y mínimos cuadrados (LS). Dada la complejidad del problema se utilizarán metaheurísticas, en particular Simulated Annealing y un algoritmo genético multiobjetivo (NSGA-II). Para ello se ha propuesto una metodología dividida en cinco etapas: (1) revisión y organización de los datos, (2) aplicación de metodologías, (3) construcción de funcionalidades, (4) implementación del algoritmo y (5) evaluación de los resultados. Ya existen resultados parciales que permiten comparar las hipótesis evolutivas generadas al método con y sin alineamiento utilizando como estrategia generadora de árboles Neighbour joining. Como resultado final se espera poder optimizar esta topología usando ME y LS, midiendo la diferencia al usar métodos de IF basados en alineamientos, evaluando su potencial aplicación como reemplazo al trabajar con grandes volúmenes de datos.

Interferometric data estimation using deep learning

La radio interferometría es uno de los métodos utilizados actualmente para la captación de señales de radiofrecuencia en la síntesis de imágenes astronómicas. Las señales captadas mediante este método, llamadas "visibilidades", representan muestras dispersas del plano Fourier de la imagen que se busca obtener. A causa de distintos factores, las visibilidades se distribuyen de manera irregular y debido a esto, una gran porción del plano se encuentra sub-muestreado. Con la finalidad de obtener puntos regularmente espaciados en el plano, se aplican procesos como el gridding, pero debido a la falta de muestras, este proceso añade errores que implican una calidad deficiente en las imágenes obtenidas. Existen distintos métodos de síntesis de imágenes en radio interferometría con la finalidad de minimizar estos errores y obtener una imagen con la mejor calidad posible. Uno de los enfoques poco explorados para este proceso es la utilización de aprendizaje profundo en la reconstrucción de imágenes en astronomía, sin embargo, existen exploraciones de este enfoque en otros dominios, como lo es el caso de imágenes de resonancia magnética. Mediante estos avances previamente utilizados en reconstrucción de imágenes de resonancia magnética, este trabajo propone el desarrollo y entrenamiento de un modelo de aprendizaje profundo, que permita estimar los datos interferométricos faltantes en planos de Fourier griddeados y submuestrados, de forma que la síntesis de imágenes corresponda a la simple aplicación de la transformada inversa de Fourier, obteniendo imágenes de mayor calidad y utilidad para la comunidad astronómica. El método se evaluará comparando medidas de rendimiento de calidad de imagen entre el método propuesto, la imagen sucia y la reconstruida mediante CLEAN.

Simulation Framework for Building an Radio Interferometric Data Base

Uno de los métodos utilizados para la obtención de imágenes astronómicas es la radio interferometría. Este método consiste en la captación de señales de radiofrecuencia las cuales al ser sintetizadas a imágenes permiten la observación de objetos en el espacio. La obtención de estas imágenes implica la utilización de radiotelescopios como ALMA, los cuales requieren una gran cantidad de horas de observación y recursos para la captación de datos. En particular, existe una baja cantidad de imágenes interferométricas de discos protoplanetarios reales disponibles lo que implica una dificultad al momento de realizar investigaciones que requieran de una gran cantidad y variedad de datos astronómicos, por lo que se ha recurrido a la utilización de distintos simuladores para la generación de datos. Un ejemplo de estos simuladores es el software FARGO3D, principalmente enfocado en el desarrollo de simulaciones hidrodinámicas de discos protoplanetarios. Otro software a mencionar es RADMC3D, el cual permite llevar a cabo cálculos de transferencia radiativa para distribuciones de gas y/o polvo, permitiendo generar imágenes que permitan observar estas distribuciones utilizando distintos parámetros. Podemos encontrar también el software CASA, el cual es el software de procesamiento de datos principal del telescopio ALMA. Entre sus funcionalidades se encuentra el simulador Simobserve, herramienta que permite la simulación de observaciones realizadas por el telescopio ALMA, pudiendo variar parámetros como los tiempos de observación, ruido atmosférico, configuraciones de antenas, entre otros, y generando los datos interferométricos llamados visibilidades. Utilizando estas herramientas, este trabajo propone la creación de una base de datos de imágenes de discos protoplanetarios mediante el uso de FARGO3D y RADMC3D, como también la generación de observaciones interferométricas simuladas de estos discos utilizando la herramienta Simobserve. De esta forma, se busca que la base de datos construida sea un recurso que permita contribuir a la cantidad de datos astronómicos disponibles para la investigación en astronomía, en áreas tales como docencia, síntesis de imágenes, y aprendizaje profundo.

Tratamiento de politomías en análisis filogenéticos morfológicos mediante algoritmos de agrupamiento: estudio de Burkesuchus mallingrandensis

"La inferencia filogenética tiene como objetivo estimar las relaciones evolutivas entre diferentes organismos, proponiendo una hipótesis evolutiva representada como un árbol filogenético. Según el criterio empleado, la inferencia filogenética puede ser vista como un problema de optimización, buscando el árbol más calificado entre todas las topologías posibles que se pueden crear para un grupo de organismos. A menudo, los paleontólogos utilizan las características morfológicas de los organismos para inferir la filogenia maximizando el criterio de parsimonia. Éste busca hallar el árbol que minimiza la cantidad de cambios morfológicos totales que abarcaron las especies a lo largo del tiempo. Sin embargo, es común obtener como resultado múltiples árboles basados en parsimonia con equivalente puntaje y diferentes topologías, representando relaciones evolutivas conflictivas entre sí. En consecuencia, ¿Cómo se puede discernir cual de todos estos árboles filogenéticos representa de mejor manera la historia evolutiva de un grupo de organismos? Para resolver este problema, los paleontólogos aplican estrategias de consenso basadas en reglas para crear un árbol filogenético representativo, combinando todas las topologías obtenidas. El problema es que estos árboles de consenso suelen incluir politomías que cambian el puntaje de parsimonia alcanzado, y dificultan el análisis de las tasas de cambio morfológicas y la aplicación de algoritmos que aporten información acerca de la temporalidad de los organismos estudiados. Por lo tanto, ¿Qué método se puede aplicar para evitar las politomías en el árbol resultante? ¿Cómo se podría mantener el máximo valor alcanzado bajo el criterio de inferencia filogenética de parsimonia? En este trabajo, propone un enfoque diferente que buscará la hipótesis evolutiva de consenso basado en algoritmos de agrupamiento, evitando la creación de politomías usando el algoritmo árbol de expansión mínimo k-vecino más cercano (MST-kNN), efectuando visualización por medio del diseño basado en el problema de asignación cuadrática (QAP). Como estudio de caso y así probar la solución desarrollada, se analizó la historia evolutiva del cocodrilo basal extinto, recientemente descrito y que se encuentra en Chile actualmente: Burkesuchus mallingrandensis. Como resultado se obtuvo un árbol evolutivo resuelto comparable a la publicación original en que fue presentado este organismo en términos de topología, sin incluir politomías, incluyendo adicionalmente una hipótesis de estimación temporal asociada a la tasa de cambios morfológicos."

Caracterización de la producción científica de los académicos(as) de Ingeniería Informática DIINF

"Caracterizar la producción científica de los académicos del DIINF El estudiantado del Departamento de Ingeniería Informática (DIINF) de la Universidad de Santiago de Chile semestralmente debe seleccionar temas para el desarrollo de memorias o tesis. Para ello, los(as) aproximadamente diecinueve académicos(as) que forman parte del departamento comunican sus temáticas en las respectivas áreas del conocimiento, de acuerdo con sus intereses particulares en investigación, desarrollo y vínculos: informática aplicada en la industria, biología, medicina, sociedad y educación. Sin embargo, estas definiciones basadas en la aplicación pueden ser bastante generales comparadas con el cuerpo de conocimiento del área, conteniendo sesgo asociado a autodefiniciones. Esto puede resultar poco descriptivo para el estudiantado, lo que eventualmente genera confusión al escoger un tema de trabajo a desarrollar, tanto a nivel de trabajo final o al colaborar tempranamente en investigación. Durante los últimos años, la Ciencia de Datos ha ido cobrando más y más importancia en el mundo de la ingeniería y ciencia de la computación, destacando particularmente una de sus subáreas: análisis bibliométricos basados en procesamiento de lenguaje natural. Ésta corresponde al proceso de examinar colecciones de documentos para extraer información, ayudando a responder preguntas específicas de investigación. Con base en esto, se pueden plantear las siguientes preguntas ¿el uso de técnicas de PNL sobre los productos científicos desarrollados por cada académico(a) (artículos de revistas y conferencias indexadas, tesis, memorias y trabajos de título, entre otros), permitirá identificar y refinar cuantitativamente sus áreas del conocimiento en las que trabajan?, ¿estas áreas serán coherentes con las definidas a nivel departamental?, ¿cómo han evolucionado las áreas del conocimiento en el tiempo? y ¿existirán diferencias entre las áreas del conocimiento abordadas por los trabajos desarrollados por estudiantes de los diferentes programas de pre y posgrado?. Este proyecto en desarrollo apunta a la realización de un estudio basado en procesamiento de lenguaje natural sobre la producción científica de los(las) académicos(as) del DIINF, caracterizando su producción científica. Para ello se utilizará una metodología estándar para análisis bibliométrico basado en PLN, consistente en cuatro etapas no secuenciales: (1) definición de metas y alcances del análisis, (2) selección de técnicas bibliométricas, (3) obtención y organización de los datos y (4) realización de análisis y difusión de resultados. Como resultado del análisis se espera (1) identificar las áreas de investigación de cada académico(a), (2) identificar las colaboraciones entre académicos(as) del DIINF y las colaboraciones externas, (3) caracterizar la dinámica temporal de la investigación del DIINF basado en áreas del conocimiento estandarizadas y (4) conocer las actividades científicas asociadas a las publicaciones realizadas."

Variaciones de la complejidad de Lempel Ziv para analizar la respuesta de la velocidad del flujo sanguíneo cerebral ante estímulos sonoros

"La hemodinámica cerebral es de vital importancia para el correcto funcionamiento del cuerpo humano, por lo que es necesario investigar cómo diversos estímulos afectan su funcionamiento. Un estímulo con el que se convive a diario y que ha sido poco explorado son los sonidos, en específico la música, que puede relacionarse con situaciones vividas, lo cual produce que tenga un contenido emocional. A lo largo de los años, la complejidad de Lempel Ziv y su variación multiescalada han obtenido buenos resultados en señales biológicas diferenciando sujetos con hipertensión intracraneal, la enfermedad de Alzheimer, entre otros, a pesar de que su orientación es computacional, sin embargo, se ha encontrado que debido a la binarización que realiza el método se pierde información sobre la señal original. Es por esto que el objetivo de esta investigación es establecer si existe una relación entre la complejidad de Lempel Ziv y su variación multiescalada cuando personas son sometidos a diversos sonidos, además es propuesta una nueva binarización con el fin de solventar la pérdida de información. Para esto 16 sujetos fueron puestos a prueba con 5 estímulos sonoros, entre los que se encuentra la canción preferida, la cual produce contenido emocional, una canción cualquiera, ruido blanco, el sonido base y el silencio. Fue obtenida la velocidad del flujo sanguíneo cerebral mediante un Doppler transcranial de cada uno de los hemisferios para cada sujeto. A partir de los métodos implementados se concluye que la complejidad de Lempel Ziv permite detectar diferencias entre los diversos estímulos sonoros y la binarización propuesta logra aumentar la sensibilidad del método."

Estadísticas en torno a la conjetura de Kahn-Kalai con algoritmos paralelos

"Son muchas las interrogantes que existen sobre las propiedades estadísticas de grafos aleatorios en particular los relativos a estructuras cíclicas. Sin embargo, en el régimen de conexión esparza o dispersa se han realizado avances teóricos. Recientes resultados sobre la conjetura de Khan-Kalai demuestran que existe una probabilidad de conexión límite a partir de la cual es muy probable encontrar ciclos Hamiltonianos. Se demuestra que dicha probabilidad es P~log(n)/n donde n es la cantidad de nodos. Exploramos experimentalmente en torno a dicho límite mostrando su comportamiento estadístico empírico. Una de las principales motivaciones que encaminó este trabajo analítico fue la forma en que se plantea la conjetura. La probabilidad de aquel umbral de conexión en un grafo aleatorio es una cota interesante desde el punto de vista de la emergencia de estructuras en redes. Sin embargo, al momento de diseñar una solución para generar grafos con ciclos Hamiltonianos lo más dispersos posibles es necesario contar con al menos una distribución de probabilidad. De esta forma se puede diseñar basándose en una tolerancia en probabilidad a no cumplir con la condición de disponer de un ciclo Hamiltoniano. Para los grafos estudiados se encontró que una probabilidad Binomial (n, P) ajusta adecuadamente la distribución del umbral de la probabilidad de conexión. El parámetro P para grafos entre 13 y 19 nodos oscila entorno a los valores [0.4, 0.5]. La distribución binomial tiene un máximo que se interpreta como una forma de tener el umbral más seguro. La seguridad entendida en el sentido de aversión a generar un grafo sin ciclos Hamiltonianos. Claramente el umbral teórico para N=15 es p=0.18. Pero según nuestros resultados la mayoría de los casos de éxito para esa cantidad de nodos está en torno a p=0.31, que corresponde al máximo de la binomial con parámetro P=0.458 en unidades de probabilidad umbral. Para fines de diseño con caminos Hamiltonianos y con mínimas conexiones se deberá explorar la conveniencia de usar 0.18 <= p <= 0.31. Estos resultados resultan útiles en la configuración de variados problemas de ingeniería basados en grafos dispersos."

Algoritmos de optimización cuántica

"Algoritmos de optimización cuántica Un problema de optimización busca encontrar la mejor solución entre todas las soluciones factibles. Existen varios problemas importantes tales como la encriptación en internet, el modelamiento de moléculas o los problemas de distribución logística de grandes empresas, en los cuales los métodos clásicos no contribuyen a obtener una solución en un tiempo finito. Los algoritmos cuánticos de optimización son utilizados para resolver problemas de optimización combinacional o sugerir una aceleración considerable para encontrar una solución que no se puede ser obtenida mediante algoritmos clásicos. En este trabajo, los algoritmos cuánticos de optimización que revisaremos son el algoritmo de optimización cuántica aproximada (QAOA) y el algoritmo cuántico variacional EigenSolver (VQE). El primero de estos algoritmos combina el sistema cuántico con técnicas de optimización clásica. Es un algoritmo prometedor, su poder de resolución se ha demostrado en numerosos problemas y continúa mejorándose. El segundo algoritmo tiene como objetivo encontrar el(los) valor(es) propio(s) de alguna matriz, que represente el hamiltoniano de algún sistema. La fuerza del algoritmo VQE, y la razón por la que ha ganado tanta popularidad tan rápidamente, es la flexibilidad del algoritmo, que permite una amplia gama de problemas solucionables. Similar al algoritmo QAOA, VQE traduce los problemas clásicos desafiantes a un espacio cuántico donde las técnicas avanzadas de optimización clásica se pueden usar para resolver el problema mucho más rápido. Ambos algoritmos utilizan como función de costo del modelo de energía Ising que describe la energía de un sistema compuesto por partículas con dos posibles orientaciones de espín, y sujeto a un campo magnético externo. En la naturaleza, los sistemas como estos siempre tenderán a su estado de energía más bajo, por lo que el objetivo es intentar predecir su estado fundamental. "

Predicción de la dificultad de una tarea de búsqueda a través de un registro de acciones en tiempo discreto con spectrum kernel

"Dentro del campo de Búsqueda y Recuperación de Información Interactiva, la detección automática de la dificultad percibida de una tarea de búsqueda web es un problema abierto y contingente. La literatura actual aborda este problema mediante el cálculo de variables agregadas (como tiempos de permanencia, cuenta de consultas emitidas, cantidad de páginas visitadas, entre otros) realizando una predicción mediante aprendizaje de máquina supervisado, con resultados variados. El problema asociado a este trabajo es: ¿Cómo realizar una predicción oportuna de la dificultad percibida de una tarea de búsqueda web, con el fin de proveer ayuda adecuada al proceso de búsqueda (de ser requerido)?. Este trabajo propone un método novedoso para la predicción de la dificultad percibida, utilizando el Spectrum String Kernel de las Máquinas Vector de Soporte (SVM), en el cual se representan las diferentes acciones que realiza un usuario durante su etapa de búsqueda (como enviar una consulta, hacer un click, visitar una página de resultados, entre otros) como un caracter dentro de una cadena que representa el historial completo de acciones del usuario en su tarea de búsqueda (denominado ""String de Acciones""). Para realizar este trabajo, se realizó un estudio de usuario con tareas de búsqueda simuladas, mediante las cuales se registraron las acciones que fueron realizando los participantes junto con su percepción de la dificultad de cada tarea. Luego se construyeron los strings de acciones por cada segmento de consulta, tarea de búsqueda y participante. Los strings de acciones pueden ser estándar (contemplando todas las acciones del usuario) o simplificados (se deja un solo caracter cuando hay una serie de acciones del mismo tipo de forma consecutiva). Finalmente se entrenó el modelo de aprendizaje de máquina supervisado con cada string de acción y la dificultad percibida por cada par participante-tarea como clase. Para balancear el conjunto obtenido por clase, se recurre a la técnica de sobremuestreo. Los modelos resultantes fueron evaluados mediante AUC. Los mejores resultados de clasificación se obtuvieron utilizando el primer segmento de consulta de cada tarea, con un string de acción simplificado y sobremuestreo (AUC=0.758). Queda como trabajo futuro el hacer sintonía fina de estos modelos y hacer un análisis exhaustivo de los patrones detectados por el SVM String Kernel para dificultad percibida de una tarea de búsqueda."

Clasificación de los hospitales públicos chilenos en función de la producción asistencial mediante técnicas de clustering

"Los gobiernos a nivel mundial han adoptado diferentes estrategias para enfrentar la pandemia asociada al SARS-CoV-2. Estas medidas incluyen diversos enfoques para asignar y administrar los recursos, controlar la propagación del virus y mitigar los contagios. La eficiencia técnica (ET) permite evaluar la tasa de éxito en la gestión del gobierno y el desempeño de los establecimientos de salud, apuntando a mejorar la respuesta ante este y otros tipos de eventos adversos: enfermedades, desastres naturales y sociales, entre otros. La ET es una medida relativa que contrasta lo producido por los establecimientos de salud y los recursos utilizados para este fin, por lo que los expertos sugieren compararlos ajustando su producción según el tipo de paciente tratado: case-mix o casuística. La literatura recomienda utilizar el sistema de Grupos Relacionados para el Diagnóstico (GRD) para ajustar la producción de los hospitales. Sin embargo, en la actualidad sólo 80 de los más de 195 hospitales públicos han implementado este sistema en Chile, teniendo heterogeneidad de criterios de codificación y falta de calidad en los registros, en términos de tiempos y cobertura. Esto limita la evaluación de la ET. El Ministerio de Salud de Chile (MINSAL) ha propuesto una categorización administrativa de los hospitales públicos: alta, media y baja complejidad. Por lo tanto, los gestores sanitarios podrían usar esta clasificación para agrupar los hospitales evitando sesgos. Sin embargo, ¿qué tan buena es esta clasificación según el punto de vista de la ciencia de datos y cómo se relaciona con la casuística? En este trabajo se evalúa la categorización propuesta por el MINSAL aplicando índices de agrupamiento interno y características de entrada asociadas a la producción de salud relacionadas con casuística, considerando diferentes técnicas de agrupamiento y una estrategia ad-hoc NSGA-II. Después de evaluar particiones alternativas, en que NSGA-II obtuvo los mejores puntajes de calidad, se demuestra que los grupos propuestos por el MINSAL no se relacionan con la casuística hospitalaria, y se propone una nueva clasificación para los análisis de eficiencia técnica. No obstante, la utilización de este grupo aún no respondería al estándar propuesto por la literatura que implica el uso directo de los GRDs. Para dar solución a ello se propone el desarrollo de un modelo de regresión que utilice las variables de producción que dispone anualmente el Departamento de Estadística e Información de Salud (DEIS), que incluyen más de cinco mil características por año, con el fin de estimar los pesos GRD de los hospitales faltantes o incompletos y así evaluar correctamente eficiencia técnica según como lo sugiere la literatura."

Street Blocks - Videojuego basado en bGames

"Motivación: Apoyar al equipo InteracTiOn en su trabajo por construir una comunidad de desarrollo de código abierto para su plataforma bGames, por medio de la creación de un videojuego que utilize dicha plataforma y aportar al crecimiento de la biblioteca de títulos que serán usados a fúturo para demostrar las capacidades de la plataforma. Problema: InteracTiOn desea crear una comunidad de código abierto para sustentar el desarrollo de la plataforma de bGames y dentro de las estrategias contempla el uso de videojuegos como casos uso, sin embargo aún no cuenta con suficientes títulos que abarquen todos los géneros y motores de desarrollo disponibles. Enfoque solución: El desarrollo de un videojuego Beat-em-Up usando el motor de desarrollo GameMaker 2 para ampliar el rango de géneros del catálogo de juegos actuales. Metodología: La metodología de desarrollo combina aspectos de RAD para la captura de requisitos y metodología ágil incremental para la etapa de producción e iteración. Resultados: El resultado esperado es un videojuego de género Beat-em-Up desplegable en linux y windows usando las capacidades de bGames para mejorar la experiencia de juego."

Aplicación de procesamiento de lenguaje natural para caracterización de serie infantil “ Pichintún”

"Desde el punto de vista de CNTV, “Pichintún” es una serie de 32 capítulos y 4 temporadas, que alberga historias de niños de distintas partes de Latinoamérica descritas por ellos mismos. Posee un lenguaje sencillo y cercano con el público objetivo que bordea los 4 a 6 años. Dada la relevancia que ha tenido la serie a nivel nacional e internacional, su caracterización a nivel cuantitativo permitiría extraer información valiosa para reforzar el contenido educativo y entender su éxito, lo que ayudaría a los productores a conocer el avance de la serie en términos de sentimientos expresados, interacción entre personajes, respuesta del público, apoyándole en tomar decisiones creativas. Por ejemplo, modificando partes del guion según la complejidad léxica para el público objetivo, integrando más elementos enfocados a las temáticas más apreciadas por niños, dedicando más esfuerzos a factores emocionales que pueden ser influyentes en la popularidad y apreciación del público. Incluso, analizar cómo estos factores se ven modificados ante los distintos productores que han sido responsables de la serie. Tomando esto en cuenta y la literatura relacionada, ¿cómo se podría estudiar cuantitativamente la serie para abordar los puntos anteriores? Este trabajo en progreso tiene como objetivo responder esta pregunta mediante un análisis cuantitativo basado en procesamiento de lenguaje natural (NLP), una rama de la inteligencia artificial que combina ciencia de la computación, aprendizaje automático y lingüística computacional. Este tipo de estrategia ha sido aplicado por la literatura en contextos similares. A nivel metodológico se ha optado por CRISP-DM, el cual proporciona una descripción normalizada del ciclo de vida de un proyecto estándar de análisis de datos, que cubre las fases de un proyecto, sus tareas respectivas, y las relaciones entre estas tareas. El ciclo de vida del proyecto de minería de datos consiste en seis fases: (1) Entendimiento del negocio, (2) Entendimiento de los datos, (3) Preparación de datos, (4). Modelamiento, (5) Evaluación y (6) Despliegue. Luego del desarrollo, que será llevado a cabo junto a la productora de la cuarta temporada de la serie, se espera poder obtener como resultado una clara identificación de la evolución en el tiempo de la serie en cuanto, a la relación de sus personajes, emociones registradas, temas mencionados y equipo de producción encargados, junto con lo cual se espera poder reconocer los principales puntos de éxito de la serie a nivel de apreciación por parte del público y relacionarlo con las múltiples variables analizadas para así reconocer cuáles de estas son influyentes sobre esta apreciación. Se espera poder apreciar la veracidad respecto a la sencillez del lenguaje empleado en la serie y si este es apropiado en complejidad para el público objetivo. Con todo esto en cuenta, se busca poder obtener finalmente una caracterización a nivel cuantitativo de la serie infantil “Pichintún”. "

Tratando el problema de balanceo de malla curricular utilizando un algoritmo multiobjetivo del tipo metaheurístico

"El diseño curricular de los programas académicos y su distribución de la carga se ha convertido en un tema controvertido ya que se relaciona con la salud y el rendimiento de los estudiantes. En Chile, la carga de los programas académicos debe distribuirse y equilibrarse de acuerdo con las recomendaciones del Sistema de Transferencia de Créditos Académicos de Chile (SCT-Chile). El problema de balanceo de malla curricular o Balanced Academic Curriculum Problem (BACP) ha sido formalmente definido y estudiado desde en informática como problema de optimización. Este consiste en asignar cursos a períodos de enseñanza (i.e. semestre, trimestres, entre otros), de manera que se cumplan los requisitos previos y se equilibre la carga de cursos de los estudiantes. El problema de BACP ha sido clasificado como NP-completo de acuerdo con la teoría de la complejidad computacional. En este proyecto se han utilizado dos estrategias para lidiar con este problema: programación cuadrática entera y algoritmos genéticos. Ambos enfoques obtuvieron las soluciones óptimas al ser probados con conjuntos de datos de la literatura con programas académicos internacionales. Al ser evaluado con programas académicos de nuestra universidad, se encontraron soluciones que mejoran el equilibrio de los programas, distribuyendo uniformemente la carga entre períodos. Sin embargo, los resultados dan cuenta que existen diferentes criterios de optimización que pueden ser aplicados, conflictivos entre sí, que llevan a obtener diferentes configuraciones para un mismo conjunto de datos de entrada: balance de periodos, carga mínima, mínima ruta crítica, entre otros. A raíz de ello se ha propuesto un nuevo enfoque, trabajo actualmente en desarrollo, que busca implementar dos estrategias que utilicen metaheurísticas multiobjetivo para lidiar con este problema, un algoritmo de búsqueda para problemas de optimización como Simulated Annealing y un enfoque de algoritmo genético (NSGA-II). Con ello se busca obtener mejores resultados que los algoritmos de objetivo único, reduciendo el sesgo en la elección de los criterios de optimización. "

Modelos de regresión para estudio de Single Nucleotide Polymorphism determinantes de características enológicas en Saccharomyces cerevisiae: eficiencia, tasa y retardo de proliferación

"La Saccharomyces cerevisiae es un organismo unicelular altamente estudiado bioingeniería, debido su participación en diferentes procesos industriales como la generación de bebidas fermentadas, destiladas y productos de alimentación. Se caracteriza por ser fácil y rápida de cultivar, lo que permite una producción de múltiples cepas a bajo costo. Al ser un organismo con su genoma identificado, es posible seleccionar y mejorar cepas mediante técnicas de manipulación genética. Con el surgimiento de la genética molecular moderna y dada la importancia de organismos claves en la industria como la S. cerevisiae, la demanda de cepas genéticamente modificadas para el mejoramiento de los procesos productivos en la industria de alimentos, bebidas, repostería y farmacología, entre otros, se encuentra en continuo crecimiento. En el caso particular de la industria de bebidas alcohólicas, las cepas son modificadas para mejorar las propiedades enológicas, reproductivas y sensoriales de los productos generados. Sin embargo, a pesar de que el genoma de esta levadura fue uno de los primeros en ser secuenciados y la facilidad con que este microorganismo puede ser cultivado experimentalmente en laboratorio, su variabilidad, bio-diversidad y eco-fisiología hacen costosa la identificación de las posiciones específicas a modificar a nivel genómico, SNPs, en términos de tiempo y economía. Afortunadamente, los métodos de selección de características permiten la identificación de posibles objetivos de modificación genética, proponiendo modelos de regresión predictivos para efectuar perturbaciones in-sílico, acotando el número de experimentos in-vitro. Este trabajo propuso diferentes modelos de regresión, identificando posibles candidatos de SNP’s, para evaluar su efecto a nivel fenotípico considerando características enológicas, asociadas a la proliferación de diferentes cepas de S. cereviciae usadas en la producción de bebidas alcohólicas. Para esto se utilizó una la metodología CRISP-DM es un modelo de procesos estándar abierto de proyectos de minería de datos. Consta de 6 etapas: (1) entendimiento del negocio, (2) entendimiento de los datos, (3) preparación de los datos, (4) modelamiento, (5) evaluación y (6) despliegue. Se realizaron 4 experimentos diferentes, variando una de las características de los datos (chromosome), obteniendo 48 modelos de regresión (12 modelos por experimento), cada uno de ellos evaluados mediante una métrica (MAE). Los resultados indican que sí es posible obtener un listado de posiciones de genomas que influyen en las características estudiadas. Estas posiciones obtenidas son enriquecidas mediante herramientas como ShyniGO, el cual establece que sí existen posiciones relacionadas en la literatura y otras no identificadas, las cuales pueden abrir una nueva puerta de investigación. Actualmente los SNPs detectados están siendo evaluados en experimentos in-vitro."

Alfabetización informacional como predictor del rendimiento académico en estudiantes universitarios

"La deserción estudiantil en educación superior es un problema importante que ha sido ampliamente estudiado en la literatura, pues es un indicador clave al momento de evaluar a las instituciones de educación terciaria. En otro ámbito, el siglo XXI ha traído grandes cambios en la manera de interactuar con la información, creando la necesidad de desarrollar nuevas competencias, entre ellas las informacionales, las cuales son cada vez más necesarias. Esto es especialmente válido en educación, pues el proceso formativo debe asegurar que niñas, niños y jóvenes desarrollen tales competencias para que puedan desenvolverse plenamente en la sociedad actual. Es así que se han definido diversos estándares de competencias informacionales, los cuales han dado origen a una gran variedad de instrumentos para evaluar dichas competencias. Existe literatura, aunque escasa, que vincula explícitamente los dos fenómenos. Sin embargo, al ampliar la perspectiva, el rendimiento académico aparece como potencial vínculo entre ambos: por una parte, es destacado como uno de los principales predictores de la deserción estudiantil y por otra, la formación en competencias informacionales aparece asociada a un mayor rendimiento académico. Con base en los antecedentes expuestos, este trabajo propone: (1) caracterizar a los estudiantes de nuevo ingreso a la educación superior de acuerdo a sus competencias informacionales, (2) usar herramientas de aprendizaje automático para construir modelos que predigan el rendimiento académico de estudiantes universitarios de primer año a partir de sus competencias informacionales y de factores demográficos, socioeconómicos y académicos y (3) comparar los diferentes modelos e interpretar sus resultados a fin de establecer una posible asociación entre competencias informacionales y rendimiento académico. Los resultados que se obtengan de este trabajo pueden ser de gran valor, pues la literatura que relaciona la deserción estudiantil con las competencias informacionales es escasa y proviene mayoritariamente del ámbito de la bibliotecología. En consecuencia, la identificación de una asociación entre el rendimiento académico y las competencias informacionales podría facilitar una actualización de los modelos que explican la deserción estudiantil (dada la importancia del rendimiento académico en dichos modelos), así como realzar la necesidad de desarrollar las competencias informacionales en todos los niveles educativos"

Selector inteligente sincrónico de héroes para el videojuego heroes of the storm

En los últimos años los juegos tipo Multiplayer Online Battle Arena (MOBA) han llamado la atención de los investigadores gracias al aumento de popularidad que han tenido los videojuegos. Entre estos juegos está el conocido Heroes of the Storm, el cual presenta distintas peculiaridades que lo hacen resaltar entre otros exponentes en su género, como es la posibilidad de usar múltiples mapas en sus partidas clasificatorias. Esta investigación propone la creación de un modelo capaz de sugerir héroes en la fase de selección, con el propósito de que estos tengan la mayor probabilidad de victoria en su respectiva partida. Mientras otros estudios en juegos similares han utilizado algoritmos como el genético o MinMax para dirigirse a problemas de este tipo, este trabajo utiliza una combinación entre un algoritmo de machine learning y el algoritmo de búsqueda de Monte Carlo tree search (MCTS). Para esto se utiliza una metodología basada en la estructura seguida por el documento guía desarrollado por Kettner (2017) para estudiar otros juegos MOBA. Primero se modelan, ajustan, prueban y comparan distintos algoritmos de machine learning con el fin de encontrar al que mejor se adapte al entorno de HOTS. Estos algoritmos son los siguientes: logistic regression, decision tree, gradient boosting y k-nearest neighbor. Luego se utiliza el algoritmo seleccionado para elaborar un modelo MCTS. Finalmente, se compara MCTS con un modelo de selección aleatoria y otro que selecciona por el mejor winrate, para luego analizar los resultados y compararlos con los vistos por la investigación guía. Entre los resultados del trabajo, se puede observar que gradient boosting es el algoritmo más adaptado a HOTS y que su uso en el modelo de MCTS muestra resultados significativamente distintos a la selección por los otros modelos. Adicionalmente se ha creado una aplicación web para ser usada por jugadores.

Aplicación de modelos de aprendizaje automático usados para la detección de fake news en inglés en el contexto nacional

Fake new se define como información verificablemente falsa o engañosa que se divulga con fines lucrativos o para engañar deliberadamente a la población y que puede así causar un perjuicio público. Su uso puede terminar desacreditando a personas, manipular los mercados financieros, provocar caos social o desestabilizar las relaciones internacionales. Este fenómeno ha incrementado con las redes sociales, las que han progresado y se han incrustado en el tejido social sobre la base de la masificación del Internet. Estas poseen atributos intrínsecos de inmediatez y cobertura mundial, con producción de bajo costo, difusión rápida y sencilla. Las plataformas son conscientes de este problema, sin embargo, la respuesta frente a la desinformación es desigual en el mundo, ya que los esfuerzos se concentran en el idioma inglés y perjudican a regiones como América Latina. Los desafíos actuales hacen imperativo desarrollar soluciones automatizadas para la detección oportuna de la desinformación. Numerosos estudios se han dedicado a la correcta clasificación y reconocimiento de fake news por medio de técnicas de aprendizaje automático que se limitan al idioma inglés. Chile está experimentando síntomas de desorden de la información, para resolver lo anterior, este proyecto se centra en aplicar modelos de aprendizaje automáticos estudiados en textos en inglés con alta precisión sobre noticias traducidas al español, con el fin determinar su adaptabilidad, exactitud y precisión en el contexto nacional, suministrando una base de conocimiento esencial para estudios futuros sobre esta temática. El problema se centra en la escasez de conjuntos de datos asociados a noticias falsas y verdaderas formalmente etiquetadas en español, y la desconocida adaptabilidad y precisión de los modelos de aprendizaje automático sugeridos por la literatura para este idioma. En la práctica, la adaptación al idioma inglés sobre el español chileno y el proceso de verificación de la información actualmente se realiza de manera manual y muchas veces tardía. Buscando establecer una base para resolver este problema, surge naturalmente la siguiente pregunta: ¿la adaptación de métodos de clasificación de aprendizaje automático desarrollados para estudiar noticias en inglés, permiten verificar si una noticia en español chileno es o no verdadera, manteniendo la misma precisión y exactitud? La solución está orientada a mitigar la difusión de fake news en Chile a través de redes sociales al proporcionar un modelo de clasificación automático que reduzca los tiempos de fact checking manuales. Por otra parte, establecer una línea base para saber si es posible o no utilizar directamente diccionarios y/o bases de datos en inglés para estudiar el contexto nacional, en términos de precisión y exactitud. Finalmente, fomentar el pensamiento, que los lectores puedan diferenciar entre una fake news y una noticia real reconociendo patrones que la experimentación de esta solución pueda otorgar.

Análisis bibliométrico de la evolución científica de la ingeniería biomédica en Chile

La ingeniería biomédica (IB) es un campo multidisciplinario formalizado en la década de los cincuenta, que combina los principios de ingeniería, medicina y biología para enfrentar desafíos en el contexto sanitario. Inicialmente la IB se asoció sólo a la creación y mantenimiento de dispositivos médicos, sin embargo, ésta ha evolucionado a la par de los desafíos y cambios tecnológicos, cubriendo en la actualidad diferentes áreas del conocimiento: bioinformática, bioingeniería, bioinstrumentación, biomateriales, biomecánica, informática médica, imágenes médicas, ingeniería celular y de tejidos, ingeniería clínica, ingeniería en rehabilitación, ingeniería genética y neuroingeniería, entre otros. La Universidad de Valparaíso fue pionera en Chile al impartir formalmente la carrera de IB a nivel de pregrado (2000), siendo seguida por la Universidad de Concepción (2005) y la Universidad de Santiago de Chile (2020). Cada uno de los programas de estas universidades dispone de sus propios perfiles de egresos para sus profesionales, con diferentes áreas de especialidad, desarrollo e investigación. Sin embargo, ¿Qué diferencia a cada programa en términos de investigación? ¿Cuáles son las áreas del conocimiento en que se especializan sus académicos y académicas? ¿Cómo han evolucionado las áreas de investigación en el tiempo? Este proyecto busca responder estas y otras preguntas relacionadas en forma cuantitativa, mediante un estudio exploratorio que analizará las publicaciones indexadas de los y las académicas pertenecientes a cada programa de IB por medio de un análisis bibliométrico basado en minería de texto. Ésta última es un área del campo de la inteligencia artificial que usa procesamiento de lenguaje natural para procesar datos en formato texto, analizándolo por medio de algoritmos de aprendizaje automático.

Implementación de algoritmo genético multi-objetivo para inferencia de redes filogenéticas

"La inferencia filogenética propone una hipótesis para explicar las relaciones evolutivas entre un conjunto de organismos. Estas relaciones comúnmente son representadas por medio de árboles filogenéticos. Con esto, se debe asumir que la transferencia de la información evolutiva tiene un carácter vertical, es decir, que existe herencia exclusiva entre ancestros y descendientes, lo cual no permite el modelamiento de mecanismos evolutivos más complejos, como transferencia horizontal de genes, hibridación y recombinación, entre otros. Recientemente se ha propuesto a las redes filogenéticas como el medio de representación de estos fenómenos, tomando en cuenta que para su construcción se plantean diferentes estrategias que abordan el proceso de inferencia como un problema de optimización basado en un criterio específico, como parsimonia o verosimilitud. Sin embargo, las topologías resultantes de estas aproximaciones presentan conflicto en sí, y varían dependiendo de diferentes fuentes de sesgo: (1) el criterio escogido para la selección de una topología determinada, (2) la elección de un modelo evolutivo asociado al cálculo de verosimilitud, (3) el tipo de evidencia evolutiva empleada para la construcción de una hipótesis, (4) el paradigma aplicado para la combinación de evidencia biológica, y (5) el sentido topológico de la red. La literatura ha propuesto un algoritmo basado en optimización multiobjetivo capaz de inferir redes filogenéticas incorporando las diferentes fuentes de sesgo en la construcción de hipótesis evolutivas, el cual presentó soluciones de mejor calidad en términos de dominancia, en comparación con otra estrategia basada en la optimización de un único objetivo. Sin embargo, el algoritmo implementado presenta funciones de evaluación las cuales no han sido eficientemente implementadas, lo cual provoca que puede demorar días en procesar una cantidad pequeña de especímenes, haciéndolo válido a un nivel experimental pero poco práctico para un uso real. Sin embargo, recientemente se ha publicado una biblioteca en Julia, que contiene una implementación eficiente para calcular estos criterios, dada una topología de red. Con el objetivo de resolver lo antes mencionado, se propone realizar la implementación del algoritmo en el lenguaje de programación Julia, el cual se ha demostrado que tiene un mejor rendimiento que Python o R (lenguaje de programación originalmente utilizado), apuntado a un aumento del speed up del algoritmo multiobjetivo original para redes."

Dimensionality reduction for single-cell RNA-seq data clustering and visualization

"En años recientes la tecnología de secuenciación ha permitido obtener secuencias de RNA de células únicas (scRNA-seq) permitiendo la obtención de nuevo conocimiento biológico, desde genómica de cáncer hasta el estudio de comunidades microbiales diversas. A diferencia de los métodos de secuenciación por lote que obtienen los promedios de la expresión génica, SCRNA-seq permite caracterizar células únicas, y con esto: descubrir poblaciones de células complejas, revelar relaciones entre genes reguladores y seguir la trayectoria de la evolución de un linaje de células en desarrollo. El uso de agrupamiento no supervisado es el principal método para identificar distintos tipos de células en los datos de scRNA-seq. El objetivo del agrupamiento es descubrir los grupos que naturalmente existen en los datos, creando particiones de células similares entre sí y disímiles a células en otras particiones. La tarea de agrupar células en datos de scRNA-seq no es una tarea fácil. Los datos que se obtienen de scRNA-seq tienen ruido, alta dimensionalidad, sesgo por amplificación, y drop-outs. Existen variados métodos computacionales y paquetes de software que enfrentan estos problemas utilizando distintos pipelines. Sin embargo, ninguno asegura que las particiones encontradas correspondan a los grupos presentes en los datos. Además la gran cantidad de células y genes hace necesario que los algoritmos sean eficientes. Dentro de estos pipelines se realizan múltiples tareas. Normalización, imputación de dropouts, reducción de dimensionalidad, cálculo de medidas de similitud, agrupamiento, identificación de células raras, diferenciación de células y ordenamiento en pseudo tiempo, descubrimiento de marcadores de genes. Este trabajo se enmarca en la generación de una propuesta de tesis de doctorado y tiene como objetivo mejorar la calidad de las soluciones en las etapas de reducción de dimensionalidad y agrupamiento."

Sala de escape virtual para MOTIONS con soporte de periféricos VR a través de Input System

"MOTIONS (huMan-infOrmaTion InteractiON System) es un sistema de software construido para apoyar la investigación de la interacción humano-información (HII) a través de la integración de distintos periféricos en variadas interfaces (teclado ratón, Leap Motion, kinect, entre otros). Esta herramienta posee una única experiencia asociada a tecnologías de realidad virtual (VR), la cual está desarrollada para la tecnología que hoy en día se considera obsoleta: Oculus Rift Development Kit 2 (DK2). En esta línea este trabajo de título propone ampliar este sistema a través de tecnologías modernas de realidad virtual. En particular se trabaja con Oculus Rift y Oculus Quest 2, a partir de la implementación de una experiencia en VR que aplique elementos y conceptos del estudio de HII. La solución se realiza mediante un enfoque metodológico de prototipado rápido (inspirado en RAD) en conjunto con desarrollo iterativo incremental. Además, en la solución se hace uso de Input System, que se considera uno de los estándares actuales del desarrollo para VR y otorga una abstracción respecto al dispositivo utilizado, lo que permite que el trabajo desarrollado no quede obsoleto rápidamente. Es de acuerdo con esto que se desarrolló una experiencia cercana a una sala de escape, que bajo el objetivo de ordenar objetos, permite completa flexibilidad para configurar desafíos bajo los parámetros definidos en el juego. Es necesario considerar, que al momento de realización de este trabajo de título, MOTIONS se encontraba bajo un proceso de refactorización, por lo que esta sala de escape no está integrada a MOTIONS, pero queda como trabajo a futuro su integración."

Holografía tridimensional de la vibración en la superficie de fuentes de ruido y cómputo de la potencia acústica mediante métodos de regularización para problemas inversos

"El estudio de la radiación de fuentes de ruido es de gran interés dado sus efectos nocivos; tales como insomnio, migrañas y casos más complejos como pérdida auditiva o enfermedad a las arterias coronarias. El foco principal de este estudio es la obtención de la potencia sonora, ya que es un parámetro de gran utilidad para el control y mitigación de fuentes sonoras y para la predicción de niveles de ruido bajo la normativa nacional ambiental y ocupacional. Los arreglos de micrófonos y cámaras acústicas abren la posibilidad de obtener la potencia sonora a partir de métodos inversos, un problema complejo debido a la presencia de ruido, la incompletitud de datos al registrar solo una porción de la radiación emitida en puntos discretos y la necesidad de algoritmos eficientes tanto en tiempo como en memoria para la captura de señales múltiples y la reconstrucción de imágenes. Dado los últimos avances en poder de cómputo que permiten procesar mayores cantidades de datos, es plausible pensar en aplicar métodos matemáticos más sofisticados para generar una mejor reconstrucción que los métodos tradicionales. Con un enfoque de paralelismo en una y múltiples tarjetas de video, se propone acelerar los cálculos para resolver el problema inverso mediante los métodos de los elementos de contorno, de las fuentes equivalentes, de mínimos cuadrados de la ecuación de Helmholtz y un desarrollo basado en la matriz de resistencia de radiación. Estos dan lugar a un problema mal puesto, cuya solución se obtiene mediante distintos métodos de regularización y para la selección de sus parámetros. Se propone una investigación que comprenda una revisión de los métodos disponibles para el cómputo de la potencia acústica y distribución de la vibración en la superficie a partir de mediciones realizadas con arreglos de micrófonos, una posterior comparación en exactitud, tiempo de cómputo y su aplicación en dispositivos tipo tarjeta de desarrollo de pequeño tamaño para cálculos en tiempo real y el diseño y construcción de un prototipo de hardware para realizar mediciones e implementación. La metodología de trabajo propuesta se compone de cuatro etapas: una revisión bibliográfica más completa, la implementación en dispositivo de los métodos en un prototipo de hardware, mediciones en laboratorio para obtener las respuestas al problema planteado y el desarrollo de trabajos para ser publicados en congresos y revistas del área. A la fecha se ha logrado implementar los métodos inversos y de regularización con aceleración por tarjetas gráficas y el desarrollo de un trabajo de investigación para una conferencia internacional. Adicionalmente, se prepara un artículo que pretende obtener los resultados utilizando múltiples tarjetas gráficas para un rango de frecuencia amplio en un problema numérico simulado, mostrando resultados favorables tanto en speedup (para tiempo real o diferido) como en exactitud."

Modelo tecnológico y procedimental basado en un asistente virtual para el desarrollo de competencias de búsqueda de información en línea de escolares en Chile

"En la actualidad niños y adolescentes crecen en un entorno tecnologizado, donde el uso de la Web como principal recurso para la realización de sus tareas escolares se ha incrementado drásticamente en los últimos años. Dado el intenso uso de Internet en entornos educativos, las competencias de búsqueda, evaluación y uso de la información (alfabetización informacional) se consideran como parte de las destrezas fundamentales para el aprendizaje. Sin embargo, en una era donde los contenidos en formato electrónico abundan y el docente no es el único proveedor de información, los estudiantes se enfrentan al desafío de desarrollar nuevas competencias para tener éxito tanto en la vida académica como en la personal. En este contexto, estudios previos han mostrado que el aprendizaje se relaciona directamente con los comportamientos que se exhiben al momento de buscar información en la Web. En este trabajo se propone elaborar un modelo tecnológico y procedimental basado en un asistente virtual para el desarrollo de competencias de búsqueda de información en línea, contextualizado en el aprendizaje de ciencias en escolares. Para esto, (1) se caracterizaran los comportamientos de búsqueda en línea de escolares, (2) se diseñará un asistente virtual para asistir los procesos de enseñanza-aprendizaje a partir de los comportamientos de búsqueda de escolares cuando realizan tareas de ciencias naturales, y (3) se realizará un experimento para evaluar la efectividad del modelo propuesto en el desarrollo de competencias informacionales de escolares en el dominio de las ciencias naturales. Los resultados esperados de este proyecto de investigación son (1) un modelo tecnológico y procedimental y (2) una herramienta informática (i.e., tutor inteligente) orientados a mejorar el desarrollo de competencias de búsqueda en línea de escolares. Estos productos podrían contribuir a mejorar los resultados de aprendizaje de estudiantes, apoyar la labor docente en los procesos formativos de estudiantes en materia de alfabetización informacional y asistir a estudiantes en el desarrollo autónomo de competencias de investigación en línea."

Desarrollo de algoritmo evolutivo multiobjetivo para extracción de conjuntos mínimos de genes, evidenciando similitud entre árboles filogenéticos de la Saccharomyces cerevisiae

"La levadura Saccharomyces cerevisiae es utilizada en la producción de bebestibles y alimentos, debido a su capacidad de fermentación alcohólica. También ha sido un gran objeto de estudio en diversos campos de la biología debido su potencial uso en medicina y a que su genoma se encuentra completamente secuenciado. Recientemente, investigadores europeos estudiaron la variabilidad genética de esta levadura usando una gran cantidad de cepas de distintas partes del mundo. Como resultado se obtuvo un árbol filogenético de referencia con la historia evolutiva basado en evidencia total, construido sobre los 6,015 genes que componen el genoma de la levadura. El año 2016, investigadores del DIINF y CECTA, utilizando sólo 22 genes relacionados entre sí, obtuvieron un 27% de similitud con el árbol de referencia. Esto abre interrogantes de la posible existencia de otros grupos de genes relacionados entre sí que definen la historia evolutiva de la levadura. La gran cantidad de datos y genes a trabajar, además de la combinatoria que supondría analizar todas las combinaciones posibles sería de 6000 factorial aproximadamente. Por esto, considerando la gran carga computacional que implica utilizar métodos exhaustivos para la búsqueda de conjuntos mínimos de genes de la levadura, que maximicen el parecido con el árbol filogenético de referencia se requiere encontrar un método de búsqueda eficiente de estos conjuntos de genes. Por lo tanto, (a) Usando algoritmos evolutivos, ¿se identificará un grupo reducido de genes de la S. cerevisiae que permita explicar la hipótesis evolutiva de referencia? (b) ¿Qué características presentan los grupos de genes identificados, que tengan influencia en los procesos biológicos de la levadura? El presente trabajo tomó como base la hipótesis del estudio del año 2016, trabajando en una metodología de 4 etapas: (1) revisión y organización de los conjuntos de datos genómicos, (2) implementación del algoritmo, considerando el manejo y manipulación de genes y la optimización de los parámetros del algoritmo, (3) evaluación los resultados del algoritmo implementado utilizando distintos criterios y (4) análisis de enriquecimiento. Como resultado, que tenía como límite una solución de tamaño 22 en cuanto al grupo de genes, se encontró un nuevo grupo de 22 genes que representaban una similitud de un 30% en comparación con el árbol de referencia, lo que confirma la hipótesis que derivó desde nuestra universidad. Por lo que, un nuevo estudio se está llevando a cabo, para encontrar grupos diferentes de genes, con tamaño de solución máxima 100, que supere en un 50% de similitud al árbol de referencia, siendo funcionalmente relacionados entre sí. "

Preprocesamiento de datos interferométricos astronómicos mediante regresión con polinomios

"La astroinformática es una área de la astronomía que utiliza los recursos informáticos para procesar un alto flujo de datos, por la cual necesita de grandes equipos que lleven a cabo este arduo trabajo, pero también se deben tener profesionales dedicados a la programación, que diseñan algoritmos para que el trabajo de procesamiento de datos, sea con un tiempo óptimo y un coste computacional más bajo posible. Para el procesamiento de datos existen diferentes soluciones, cada uno con ventajas y desventajas. Dentro de las soluciones más usadas es mediante promedio simple en los datos, pero con este método existe mucha pérdida de información, por tanto la solución que se propone mediante polinomios ortonormales, debiera suplir esa carencia del método actual. "

Feature Selection in High-Dimensional Biology Data

"En la era de los datos donde el volumen, velocidad y complejidad crece exponencialmente, las técnicas de machine learling se han vuelto indispensables para extraer, de este enorme volumen de datos, información útil y relevante que de otro modo sería imposible. Una de estas técnicas de machine earling es la Selección de Características (feature selection) que cumple un rol indispensable para ayudar a reducir la alta dimensionalidad de los datos y para seleccionar los atributos que permitan definir claramente un problema, ignorando los datos irrelevantes o redundantes. La selección de características es un problema difícil de abordar ya que las máquinas actuales no son capaces de procesar esta alta cantidad de datos de manera eficiente, por lo tanto, existe una necesidad de métodos de selección de características escalables y eficientes, considerando también que es muy probable que los métodos actuales no sean suficientes para cubrir esta alta demanda de datos. El tamaño creciente de los conjuntos de datos abre desafíos interesantes para la comunidad de investigadores. Es por esto, que esta propuesta inicial de tesis doctoral apunta en proponer un método de selección de características sobre fuentes de datos multidimensional y basado en un modelo multiobjetivo aplicado al área bioinformática. Los conjuntos de datos bioinformáticos son generalmente grandes en términos de su número de características, e incluyen características redundantes e irrelevantes afectando negativamente la eficacia y la eficiencia de los modelos, por lo tanto que minimizar las características seleccionadas junto a otros objetivos como maximizar el rendimiento en la eficacia de la selección de características explica lo relevante de proponer una técnica basada en un enfoque multiobjetivo para el área de aplicación antes indicada. Además, las características que son irrelevantes no solo afectan negativamente la precisión también crean dificultades adicionales en la búsqueda de conocimiento útil. Esto explica la alta y reconocida necesidad de técnicas de selección de características en las variadas aplicaciones de la bioinformática a través del uso de algoritmos avanzados para su resolución. Esto hace que el problema de selección de características sea clasificado como NP-Hard. Los métodos de selección de características se están aplicando actualmente a problemas en campos muy diferentes tales como la recopilación de información sobre las diferencias de expresión génica en muestras de tejidos y células que podrían ser útiles para el diagnóstico de enfermedades o para distinguir tipos específicos de tumores. Otra área de aplicación es la clasificación de imágenes, reconocimiento facial, entre muchas otras. "

Metagenome Sequence Assembly

If there is life on other planets, it will most likely be of an extremophile microorganism type. Communities of microorganisms like extremophiles live in different environments, such as extreme deserts, deep oceanic trenches, volcanos, and familiar places such as the human digestive system or the floor of our homes. Metagenomics studies these known and unknown microorganisms to try to understand biochemical pathways that could lead to new industrial processes, to discover new disease treatments with biological compounds present in these microorganisms, or even to know if there could be living on other planets. The problem is identifying and analyzing all the properties and characteristics of the microorganisms in metagenomic samples recovered from these extreme environments. One unique feature to know about an organism is its DNA sequence. Reconstructing all the DNA sequences from a sample is the metagenome sequence assembly problem. It differs from single microorganism sequence assembly in that we want the DNA of all the species and strains in the sample, not only one species. This increase the level of difficulty in the assembly process. We can achieve this with de novo sequence assembly and reference genomes. It has been classified as an NP-Hard problem, and there are two main approaches to tackle this problem: the De Bruijn graphs (DBG) approach and the overlap layout consensus (OLC) approach. The OLC gets new relevance with the third-generation sequencing technologies that produce longer reads. In this work, we propose a new algorithmic multi-objective optimisation OLC approach, with assembly quality metrics as different objective functions, to obtain high-quality solutions to the metagenome sequence assembly problem. We present the literature review and formulation of the problem as the first approach of this work. This work is part of an initial proposal for a doctoral thesis.

Análisis de sentimientos basado en minería de texto de la serie de libros Papelucho

"Según cifras obtenidas en la última publicación de la OCDE, Chile ha obtenido resultados inferiores a los del promedio mundial en términos de comprensión lectora. Con el fin de mejorar estas cifras el MINEDUC ha propuesto un programa nacional de lectura, que incluye un catálogo de libros para los diferentes niveles de enseñanza básica. Dentro de este programa nacional, la serie Papelucho ha destacado, siendo estudiada cualitativamente por diferentes autores, concluyendo que ésta tiene elementos que ayudan al desarrollo de competencias en los lectores infantiles, señalando semejanzas y diferencias con otros libros. Sin embargo, no se han realizado estudios que corroboren esto desde el punto de vista cuantitativo. Este escenario hace indispensable realizar un análisis profundo de esta serie de libros, para así poder caracterizar cuantificando las emociones presentes en el texto, su intensidad durante la narrativa, palabras utilizadas, y su complejidad léxica. Estas características permitirán encontrar similitudes o diferencias con otros textos recomendados para la formación de lectores competentes, contrastando los resultados con los trabajos previamente publicados. En contextos similares, análisis exitosos han sido realizados por medio de minería de texto. Dado esto, es posible formular las siguientes preguntas de investigación: (1) ¿El uso de minería de texto coincidirá con los hallazgos identificados para la serie Papelucho en forma cualitativa por la literatura?, (2) ¿Qué libros de la serie resultan similares y diferentes entre sí, según sus elementos literarios y sus sentimientos?, (3) ¿Qué características particulares posee la serie Papelucho a nivel literario y sentimientos que le diferencian o asemejan a otros libros? Este trabajo tuvo como objetivo responder estas preguntas utilizando una metodología dividida en cuatro etapas: (1) búsqueda en la literatura de resultados de análisis cualitativos, (2) análisis léxico a nivel cuantitativo, (3) análisis de sentimientos y (3) aplicación de algoritmos de selección de características y agrupamiento. Los resultados obtenidos fueron generados luego de realizar agrupaciones utilizando distintos criterios, como la intensidad de sentimientos positivos/negativos en función de la narración, emociones predominantes en función de la narración, complejidad léxica y su frecuencia de palabras. Estas agrupaciones lograron caracterizar la serie de libros Papelucho y según estos criterios encontrar similitudes y diferencias con otros libros analizados. A pesar de que en varios artículos han realizado análisis cualitativos sobre la serie, le caracterizan por sus mundos imaginarios y buenos sentimientos, ninguno de ellos tiene más frases positivas que negativas."

Estudio y desarrollo de calibración utilizando bispectrum en radio-interferometría

La síntesis de imágenes en radio-interferometría permite generar mapas (imágenes) de ondas de radio emitidas del cielo, las cuales son capturadas por un conjunto de antenas. Sin embargo, estos datos son corrompidos por distintos factores como las distorsiones atmosféricas. Este ruido se presenta como un factor complejo y constante que multiplica la señal recibida de cada antena. Sin embargo, el proceso de auto-calibracion o self-calibration permite disminuir este factor, o también denominado ganancias, a través de un ciclo iterativo donde se crea una imagen con los datos actuales, se encuentra las ganancias asociadas a esta y se dividen los datos por las ganancias estimadas, volviendo al paso de generación de imagen de ser necesario. Aunque en el primer paso de self-calibration se considere la síntesis de imágenes, este en si es un problema indeterminado o mal puesto debido a que la transformación que va desde el plano de la imagen hasta los datos es altamente no invertible, por lo que una infinidad de imágenes cumple con los datos recibidos. Sin embargo, existen métodos que permiten la generación del mapa como CLEAN o MEM pero son altamente sensibles al factor multiplicativo. Aunque una técnica reciente denominada bispectrum permite generar mapas de los datos sin verse afectado por el factor multiplicativo, siendo una posible alternativa para efectuar el proceso de calibración. En este trabajo se propone efectuar una calibración mediante self-calibration y síntesis de imágenes utilizando bispectrum además de otras regularizaciones. Esto con el objetivo de responder la pregunta si el método de bispectrum es la mejor opción para calibrar. Para esto se experimenta con diferentes simulaciones de datos, imágenes y métodos de síntesis para comparar y evaluar quien genera la mejor calibración.

SIGA: Sistema de Gestión Académico Administrativa

"En la FING se aprecia que existen procesos similares dentro de sus dependencias y que utilizan los mismos datos, sin embargo, la ejecución y resultados de estos procesos van variando según los departamentos y con los datos que maneja cada unidad, que no siempre se encuentran actualizados o sincronizados. Estos datos contemplan por ejemplo la información de nuevos profesores y académicas y académicos y su actividad académica; mientras que dentro de los procesos podemos encontrar la contratación, jerarquización, cálculo de indicadores y generación de curriculums varios. Esto genera la necesidad de obtener los datos, centralizarlos y disponibilizarlos, y generar procesos y resultados que estén estandarizados para toda la FING en un sistema desarrollado con buenas prácticas de programación, confidencialidad y seguridad. El Sistema de Gestión de Actividad Académico Administrativa (SIGA) es parte del lineamiento estratégico “Cero Papel” y tiene como objetivo organizar y centralizar en línea la gestión de la información sobre las actividades académico-administrativas realizadas en la Facultad de Ingeniería (FING). En particular, SIGA organiza la información en los siguientes módulos: Hoja de vida, I+D, VIME, Perfil, e Indicadores. A su vez, tiene vistas de la información a diferentes niveles: Facultad, Departamento y Persona. Facilitando y mejorando el tiempo de ejecución del trabajo de las personas que utilizan estos distintos datos y procesos. Este trabajo ha sido realizado bajo la metodología de desarrollo ágil SCRUM, destacando la continua retroalimentación con las partes involucradas e interesadas en el sistema o stakeholders, priorizando las necesidades de usuarias y usuarios objetivos de la misma Universidad. Actualmente, se tiene un sistema en operación que resuelve algunas de las problemáticas anteriormente mencionadas, permitiendo guardar datos y entregando documentación actualizada y estandarizada para soportar los diferentes procesos y solicitudes de la Universidad."

Demos

"Este trabajo de título desarrolla un software que permite el marcado y verificación de microexpresiones y expresiones sutiles en el rostro humano para la detección de emociones y engaños usando la metodología de peritaje SCAnS (Six Channels Analysis System). El software, llamado EMBox-Face, funciona como un complemento de un contenedor de canales llamado EMBox. Su objetivo es asistir y agilizar algunos procesos realizados por especialistas en la detección de engaños y que comúnmente se realizan de forma manual. Comúnmente las técnicas de detección de emociones y engaño en la Computación Afectiva se hacen en canales aislados y separados. SCAnS viene a integrar y robustecer científicamente las inferencias sobre las emociones y el engaño y que son utilizadas en el contexto policial y legal. Sin embargo, categorizar y analizar datos provenientes de diversos canales de manera aislada para luego integrarlos es costoso en tiempo y esfuerzo. Por otro lado, para la construcción de EMBox-Face se utilizó la metodología Design Science Research, la cual permitió iterar diferentes versiones del software, poder validarlo con el usuario y realizar las mejoras respectivas. Para la detección de patrones en el rostro, se utilizó las llamadas Unidades Acción - UA - que es un inventario de los músculos en el rostro que se activan para producir eventos faciales como que se asocian a las emociones básicas. Aquí las AU son letras de un alfabeto y las expresiones faciales son combinaciones conocidas como el sistema de codificación FACS de Paul Ekman. Aquí, la librería Mediapipe permitió seguir puntos en el rostro que se unen por medio de cuerdas que acusaban la activación de ciertas AU’s. En especial se creó en este trabajo un algoritmo con pre-procesamientos y filtrados en la señal de activación de cuerdas para acusar la presencia de las alertas marcadas en una línea de tiempo."