Conacyt   CIMAT

Seminarios

2021

Fecha

Ponente

Resumen

24 de noviembre de 2021

Enrique Sucar Succar, INAOE

Recently there has been an important progress on the representation and learning of causal models, in particular graphical casual models. Causal models can help us have a deeper understanding of the problem, and take more informed decisions based con causal relations. In this talk I will give a general introduction to causal Bayesian networks, including how to reason with them: interventions and counterfactuals. Then I will introduce the problem of causal discovery: how to infer a causal model from observational and/or interventional data; and present some recent work of our group in learning causal models, and combining causal models with reinforcement learning. Finally, I will present some applications: (I) discovering effective connectivity in the brain, (ii) finding causal relation in COVID-19, and (iii) accelerating reinforcement learning for robotic manipulation.

10 de noviembre de 2021

Mario Graff Guerrero, INFOTEC/COLGATE

Mario Graff es Catedrático del Consejo Nacional de Ciencia y Tecnología (Conacyt) y asignado a INFOTEC, en la sede Aguascalientes (desde el 2014). Miembro del Sistema Nacional de Investigadores (SNI) nivel I. Actualmente, se encuentra de sabático como Profesor Visitante en la Universidad Colgate, Nueva York, Estados Unidos. Obtuvo el doctorado en ciencia de la Universidad de Essex, Inglaterra, bajo la supervisión del profesor Riccardo Poli en el área de programación genética. Las líneas de investigación instruidas por el Dr. Graff son procesamiento de lenguaje natural, computación evolutiva, programación genética, teoría de algoritmos evolutivos y aplicación de cómputo evolutivo en problemas de aprendizaje supervisado.

03 de noviembre de 2021

Dr. Ricardo Ríos, Universidad Central de Venezuela

En esta charla presentaremos una lista de herramientas usadas en la estimación no paramétrica aplicadas a procesos funcionales autoregresivos controlados por un régimen de Markov oculto. En particular se estima el número de estados de la cadena oculta. Este tipo de procesos tiene amplia aplicabilidad en la modelación de procesos alternantes como el PIB, así como en metereología. Forma parte de una serie de artículos escritos con Luis Rodriguez de la Universidad de Carabobo, en Venezuela.

27 de octubre de 2021

Marisol Flores Garrido, ENES-UNAM Morelia

De acuerdo con una investigación hecha por la empresa Gartner, alrededor de 85% de los proyectos de IA en 2022 tendrán algún tipo de sesgo debido a los datos, el algoritmo o el equipo responsable de su desarrollo. Durante 2020 se llevó a cabo en la ENES-Morelia un proyecto que tuvo como objetivo crear puentes pedagógicos entre la IA y las humanidades, de manera que estudiantes con un currículo fuertemente orientado a las ciencias computacionales adquirieran herramientas conceptuales que les permitieran llevar a cabo un análisis crítico de la tecnología y cuestionar algoritmos entendiendo su dimensión social, cultural y política. En esta charla voy a comentar algunas de las ideas, material y ejes de investigación más importantes derivados del proyecto.

13 de octubre de 2021

Carlos A. Reyes García, INAOE

En esta charla se dará (i) una visión de los métodos de procesamiento y clasificación de señales, (ii) del software más utilizado para aplicaciones útiles para generar prototipos de procesamiento rápidos y (iii) de la amplia gama de aplicaciones del procesamiento de imágenes y señales biomédicas, por medio de modelos derivados de las metodologías de inteligencia computacional y de los modelos híbridos que se pueden generar a partir de ellas. Las aplicaciones que se describirán están relacionadas con la implementación de sistemas de diagnóstico no invasivo.

6 de octubre de 2021

Julián Luengo Martín, Universidad de Granada

El reconocimiento de la marca, modelo y año de fabricación de coches es muy importante en un gran número de aplicaciones. Ejemplos de estas pudieran ser el monitoreo de vehículos, la clasificación basada en la apariencia del vehículo, la detección de vehículos robados y también en el mapeo del índice de desarrollo, entre otros. El uso de técnicas de Deep Learning ofrece buenos resultados al identificar modelos usados en el entrenamiento, pero afrontamos el reto de identificar vehículos no conocidos o restyling de modelos existentes.

15 de septiembre de 2021

Dr. Diego Alberto Oliva Navarro

El área de procesamiento de imágenes digitales está en constante cambio debido a la extensiva integración de cámaras en diversos dispositivos. Por ejemplo, hoy en día los teléfonos inteligentes y vehículos tienen cámaras integradas, y las imágenes extraídas deben ser cuidadosamente analizadas. En la interpretación o análisis automático de imágenes algunas etapas de preprocesamiento son cruciales, por ejemplo, la segmentación de imágenes. En este sentido, la incorporación de técnicas de inteligencia artificial que de algún modo asistan al procesamiento de imágenes contempla el uso de algoritmos metaheurísticos. Este tipo de algoritmos ha sido implementado en diferentes campos de la ciencia y tecnología ya que la demanda de nuevos métodos diseñados para resolver problemas complejos se ha incrementado. En esta charla, se abordan algunos de los métodos de segmentación de imágenes más importantes y como pueden ser extendidos para que sus problemáticas sean resueltas con algoritmos metaheurísticos. Del mismo modo, se analizarán diferentes métodos híbridos que permiten realizar una apropiada segmentación de los objetos contenidos en la imagen.

1 de septiembre de 2021

Miguel Ángel Álvarez Carmona, CICESE UT3

Procesamiento de Lenguaje Natural Aplicado al Turismo Mexicano. Las redes sociales y el rápido desarrollo de nuevas tecnologías han traído cambios considerables a la industria del turismo. El uso de la inteligencia artificial, en particular el Procesamiento del Lenguaje Natural (PLN), supone una ventaja significativa en la obtención y análisis de información sobre el contenido en internet relacionado con los servicios y productos turísticos. El PLN se define como el campo de conocimiento de la Inteligencia Artificial que se encarga de investigar la manera de comunicar las máquinas con las personas mediante el uso de lenguas naturales. Esto hace que el PLN sea una herramienta muy poderosa para poder analizar, clasificar e incluso generar el texto que involucra toda el área turística; que va, desde opiniones emitidas por un usuario acerca de un lugar o servicio en concreto, hasta chatbots que permiten a los huéspedes de un hotel tener toda la información necesaria de su entorno automáticamente y disponible las 24 horas del día. En esta plática se presentan las diversas tareas en las que el PLN se ha ido introduciendo en el ámbito turístico mexicano

26 de mayo de 2021

Dr. José Rafael León Ramos, Facultad de Ingeniería - Universidad de la República, Uruguay.

Estimación adaptativa de densidades a soporte compacto bajo condiciones de mezcla (mixing). En este artículo, proponemos un nuevo estimador adaptativo para funciones de densidad multivariadas definidas en un dominio acotado para procesos vectoriales que satisfacen una hipótesis de mezcla (mixing). Se han propuesto varios procedimientos en la literatura para abordar el problema del sesgo en la frontera, que se encuentra al utilizar estimadores de núcleos clásicos. La mayoría de ellos están diseñados para trabajar en dimensión d = 1 o en el hipercubo unitario d-dimensional. Extendemos estos resultados a dominios acotados más generales, como polígonos simples o dominios regulares cuya frontera satisface una condición de rotación. Introducimos una familia específica de estimadores de tipo núcleo sin sesgo en la frontera. Luego proponemos un procedimiento de tipo Goldenshluger y Lepski basado en los datos para seleccionar conjuntamente un núcleo y la ventana h de estimación. Demostramos la optimalidad de nuestro procedimiento en el marco adaptativo, estableciendo una desigualdad de tipo oráculo. Ilustramos el buen comportamiento de nuestra nueva clase de estimadores con datos simulados. Finalmente, aplicamos nuestro procedimiento a un conjunto de datos reales.

17 de mayo de 2021

Dr. Julián Luengo, Universidad de Granada

Detección y evaluación de anomalías en Big Data. La detección de anomalías es uno de los temas más candentes en la ciencia de datos cuando se trata de abordar problemas del mundo real. La detección de maquinaria que funciona mal o de intrusiones en un sistema son meros ejemplos de procesamiento de señales basadas en el tiempo que pueden proporcionar pistas sobre un acontecimiento importante con antelación. Sin embargo, la llegada del IoT y el almacenamiento barato facilitan a las empresas el almacenaje de enormes cantidades de datos a la espera de ser procesados por un experto. Los algoritmos clásicos de detección de anomalías no pueden procesar tal volumen de información, lo que requiere el diseño, la transformación y nuevas formas de evaluación de anomalías en marcos de Big Data como Spark.

12 de mayo de 2021

Dra. Daniela Alejandra Moctezuma Ochoa, CentroGeo

¿Qué se puede, y qué no, hacer con Twitter? En esta charla la idea es presentar algunos trabajos, terminados, en proceso, y futuros, usando este tipo de información proveniente de internet, como las redes sociales. Por lo que en la charla se mostrarán ejemplos de qué es ciencia de datos, y qué se está haciendo con datos de internet, así como ejemplos fallidos de lo que quizá no se puede hacer con este tipo de datos.

5 de mayo de 2021

Arrigo Coen

Detección de múltiples puntos de cambio en los contaminantes aeróbicos por medio de un modelo bayesiano de MDL sobre periodos Poisson no homogéneos. Las políticas con respecto a la contaminación del aire tienen un gran impacto en la calidad de vida de los habitantes de un país. Para poder medir el impacto de dichas políticas es necesario estudiar las series de tiempo de las partículas suspendidas. En esta charla se presenta una metodología estadística para medir el impacto de un cambio de políticas en materia de contaminantes aeróbicos. Utilizamos un modelo Poisson no homogéneo para modelar los periodos de las series de tiempo de contaminantes, el cual ajustamos utilizando la penalización bayesiana de MDL (Minimum Description Length). Para establecer los puntos en los que el proceso Poisson no homogéneo tiene cambios en sus parámetros planteamos un algoritmo genético, el cual busca la mejor distribución posterior de los puntos de cambio con respecto al MDL. Los puntos de cambio tienen una interpretación directa con respecto al impacto de las políticas establecidas. Si una política es eficaz se esperaría tener un punto de cambio el cual la represente y los nuevos parámetros deberían reflejar mejores condiciones aeróbicas. Mostraremos una aplicación de dicho modelo con respecto a las series PM10 obtenidas en Bogotá Colombia.

28 de abril de 2021

Dr. Gabriel Escarela, UAM-Iztapalapa

Modelado basado en cópulas para estimar las curvas ROC y de predicción. La característica operativa del receptor (ROC por sus siglas en inglés) y las curvas de predicción son herramientas gráficas para estudiar el poder discriminativo y predictivo de un marcador de valor continuo en un resultado binario. En este artículo, se desarrolla una construcción basada en cópulas de la densidad conjunta del marcador y el resultado para trazar y analizar ambas curvas. La metodología solo requiere una función de cópula, la distribución marginal del marcador y la tasa de prevalencia del modelo a caracterizar. Para dicha caracterización se propone la adopción de la cópula Gaussiana y de la marginal paramétrica del marcador. El cálculo de ambas curvas es numéricamente más factible que los métodos que intentan obtener una curva en términos de la otra. La estimación se lleva a cabo utilizando métodos de máxima verosimilitud y basados en el remuestreo. Se emplean residuos cuantiles aleatorios de cada distribución condicional tanto para evaluar la adecuación del modelo como para identificar valores atípicos. El desempeño de los estimadores de ambas curvas y sus cantidades subyacentes se evalúa en estudios de simulación que asumen diferentes estructuras de dependencia y tamaños de muestra. Los métodos se ilustran con un análisis del nivel de expresión del gen del receptor de progesterona para el diagnóstico y la predicción del cáncer de mama con receptor de estrógeno positivo.

14 de abril de 2021

Dr. Víctor de Oliveira, Universidad de Texas en San Antonio

Approximate Reference Priors for Gaussian Random Fields. When modeling spatially correlated data using Gaussian random fields, exact reference priors for the model parameters have been recommended for objective Bayesian analysis. But their use in practice is hindered by its complex formulation and the associated computational challenges. In this work, we propose a new class of default prior distributions for the parameters of Gaussian random fields that approximate exact reference priors. It is based on the spectral representation of stationary random fields and their spectral density functions. These approximate reference priors maintain the major theoretical advantages of exact reference priors, but at a much lower computational cost. Unlike the situation for exact reference priors, we show that the marginal prior of the range parameter in the Matérn correlation family is always proper, regardless of the mean function or degree of smoothness of the correlation functions, and also establish the propriety of the joint posterior of the model parameters. Finally, an illustration is provided with a spatial dataset of lead pollution in Galicia, Spain.

24 de marzo de 2021

Dr. Juan Humberto Sossa Azuela.

El papel de la IA en las industrias 4.0 y 5.0 en tiempos del COVID. La Inteligencia Artificial es una tecnología horizontal con alto impacto en todas las áreas del diario vivir de los seres humanos. En esta charla se describe lo que es la Inteligencia Artificial, se describen aplicaciones de esta tecnología en problemáticas relacionadas con la Industria 4.0 y 5.0. Se hace un énfasis de la aplicación en problemas relacionados con salud, en particular con la actual pandemia que actualmente estamos viviendo. Se menciona porque se debe invertir en su desarrollo, se dan algunas recomendaciones.

17 de marzo de 2021

José A. Montoya y Carlos A. Galaz Samaniego​

Reconstrucción paleobioclimática, para el Holoceno y transición al Pleistoceno, en la vertiente sur de la Sierra La Madera, Moctezuma, Sonora:​ Del polen al clima del pasado. La presentación tiene como propósito entender la problemática, los elementos que la constituyen y tener un acercamiento a un proceso de solución.​ Además, generar interés en esta línea de investigación con el objetivo de desarrollar proyectos y productos en un ambiente interdisciplinario.

10 de marzo de 2021

Dr. Carlos A. Piña García, Universidad Veracruzana

Ciencia de Datos y Redes Sociales. The growing importance of online social networks as a catalyst of social change has sparked an increasing interest in studying them. Studies increasingly use online crawling of social networks for data collection. Mining social signals from online social networks provides quick knowledge of real-world events.This talk on data science and social media data will emphasize social data collection through computational tools. We will focus on how important is to gain insights from social media and we will study those patterns that can emerge from text and social data analysis.

3 de marzo de 2021

Addy Margarita Bolívar Cimé, Universidad Juárez Autónoma de Tabasco

Comportamiento asintótico de algunos métodos de clasificación lineal para datos de dimensión alta. Es conocido que, bajo ciertas condiciones, los datos de multivariados independientes e idénticamente distribuidos tienden a estar cerca de una esfera expandible cuando la dimensión crece y el tamaño de muestra $n$ permanece fijo, formando una estructura de $n$-simplex. En ese caso diremos que los datos multivariados tienen una representación geométrica asintótica cuando la dimensión tiende a infinito. En esta plática se hablará del comportamiento asintótico que tienen algunos métodos de clasificación lineal binaria, cuando se considera que la dimensión de los datos tiende a infinito y el tamaño de la muestra de entrenamiento permanece fijo, considerando datos con la representación geométrica asintótica. El comportamiento asintótico de los métodos se estudia en términos del ángulo entre el vector normal al hiperplano separante y la dirección óptima para la clasificación y en términos de la probabilidad de clasificación errónea.

24 de febrero de 2021

Dr. Efrén Mezura Montes, CIIA-UV.

Computación Evolutiva, Paradigmas y Tendencias Actuales. En esta charla se presenta a la Computación Evolutiva como una de las áreas más activas de la Inteligencia Artificial, se describen sus algoritmos principales y se discute al respecto de la actual emergencia de múltiples algoritmos inspirados en diferentes metáforas. Posteriormente, se presenta una serie de trabajos desarrollados en el Instituto de Investigaciones en Inteligencia Artificial de la Universidad Veracruzana donde se estudian y aplican algoritmos evolutivos en diferentes dominios, destacando el descubrimiento de conocimiento en datos, el diseño mecánico y el control automático.

17 de febrero de 2021

Dr. Humberto Pérez Espinosa, CONACyT-CICESE-UT3

Aportaciones de la Paralingüística Computacional en la pandemia actual. La paralingüística se encarga del estudio de los aspectos no verbales que acompañan al habla, los cuales comunican o matizan el sentido de lo que se dice. Mediante el desarrollo de sistemas computacionales que identifiquen, analicen y clasifiquen este tipo de fenómenos en el habla se pueden generar soluciones con beneficios significativos para la sociedad en áreas como, salud, educación, seguridad y entretenimiento. En esta plática se presentarán los conceptos fundamentales de la parlingüística computacional y se hará una revisión de las investigaciones en esta área que pretenden solucionar algún aspecto relacionado con la pandemia actual.

10 de febrero de 2021

Fabián Martínez, Universidad Autónoma Metropolitana-Unidad Iztapalapa

Un modelo estadístico para la detección de cambios. La detección de anomalías resulta de gran interés debido a que nos permite identificar eventos u observaciones que difieren del patrón generado por el resto de los datos. Una clase particular de anomalías son aquellas que ocurren en datos que evolucionan a través del tiempo, generando un cambio en el patrón a partir del instante en que éstas aparecen. El reto en estos problemas, conocidos como de detección de cambios o de detección de puntos de cambio, es identificar el instante (o instantes) de tiempo en que ocurre el cambio. El propósito de esta plática es presentar un modelo estadístico para la detección de cambios. La propuesta sigue un enfoque bayesiano y está basada en particiones aleatorias.

2020

Fecha

Ponente

Resumen

2 de diciembre de 2020

Dr. José Luis Francisco Crossa Hiriart, CIMMYT.

Modelos y métodos para la selección y predicción genómica en agricultura y en el mejoramiento de plantas. En años recientes dos nuevas tecnologías aplicables a la agricultura y al mejoramiento genético de plantas han surgido. Una es la selección y predicción genómica y la otra es el uso de imágenes para el fenotipado de ensayos de campo. La selección genómica consiste en la selección de cultivares candidatos usando una población de entrenamiento (PE) que ha sido fenotipada y genotipada y una población a predecir (o validar) (PV) que ha sido solo genotipada pero no fenotipada. La selección genómica usa todos los marcadores disponibles (de alta densidad) sin seleccionar ninguno y de esta forma usar la PE para predecir los cultivares de la PV. La selección genómica acelera los ciclos de mejoramiento y por lo tanto acelera la llegada de granos (no transgénicos) al mercado del consumidor. Un importante número de complejidades estadística y genéticas existen en la predicción genómica. Usualmente el número de predictores (marcadores) es mucho mayor que el número de observaciones creando un serio problema de dimensionalidad. Los marcadores no son independientes, sino que algunos grupos están fuertemente ligados (mismo cromosoma). Interacción entre marcadores producen efectos pequeños y crípticos difíciles de detectar e incorporar. La variación creada por la interacción de los cultivares con los ambientes y de los genes con estos es difícil de modelar, cuantificar y por lo tanto explotar. Estadísticamente algunos de estos problemas se pueden resolver con modelos paramétricos y semi-parametricos ya sea con regresión-penalizada y/o selección de variables y con el uso de ‘kernel’ lineales y/o no lineales. El seminario presentara, describirá y usara varios de estos modelos y métodos nuevos en la genética estadística y genética cuantitativa. Otra técnica importante usada en agricultura es el fenotipado intenso que se obtiene a través del uso de muchas bandas hiper-espectrales (BE) a través de imágenes de drones, aviones, satélites, etc. Estas se toman a diferentes épocas del cultivo (normalmente 9 secuencias de tiempo que cubren el desarrollo del cultivo). Con estas bandas de diferente longitud de onda se construyen índices vegetativos relacionados a la fisiología del cultivo y estos se relacionan con el carácter de más importancia económica, rendimiento en grano. En un estudio de 12 ensayos de maize con 62 bandas hiper-espectrales se usaron diferentes modelos estadísticos para modelar el efecto de las bandas y de los índices vegetativos. Los resultados muestran que usar las bandas directas tiene más precisión para predecir el rendimiento en grano que usar cualquiera de los índices vegetativos. En esta presentación explicaremos las bases genéticas y estadísticas de la selección genómica y de su aplicación en el mejoramiento de cultivos. Presentaremos resultados concretos de selección genómica en maíz y de sus ventajas y desventajas. Así mismo se presentarán resultados de modelos estadísticos en el uso de imágenes de drones para el fenotipado intenso de cultivos de campo y su aplicación en el mejoramiento junto con la selección genómica.

25 de noviembre de 2020

Dra. Daniela Castro-Camilo, University of Glasgow

Bayesian space-time gap filling for inference on extreme hot-spots: an application to Red Sea surface temperatures. We develop a method for probabilistic prediction of extreme value hot-spots in a spatio-temporal framework, tailored to big datasets containing important gaps. In this setting, direct calculation of summaries from data, such as the minimum over a space-time domain, is not possible. To obtain predictive distributions for such cluster summaries, we propose a two-step approach. We first model marginal distributions with a focus on accurate modeling of the right tail and then, after transforming the data to a standard Gaussian scale, we estimate a Gaussian space-time dependence model defined locally in the time domain for the space-time subregions where we want to predict. In the first step, we detrend the mean and standard deviation of the data and fit a spatially resolved generalized Pareto distribution to apply a correction of the upper tail. To ensure spatial smoothness of the estimated trends, we either pool data using nearest-neighbor techniques, or apply generalized additive regression modeling. To cope with high space-time resolution of data, the local Gaussian models use a Markov representation of the Matérn correlation function based on the stochastic partial differential equations (SPDE) approach. In the second step, they are fitted in a Bayesian framework through the integrated nested Laplace approximation implemented in R-INLA. Finally, posterior samples are generated to provide statistical inferences through Monte-Carlo estimation. Motivated by the 2019 Extreme Value Analysis data challenge, we illustrate our approach to predict the distribution of local space-time minima in anomalies of Red Sea surface temperatures, using a gridded dataset (11,315 days, 16,703 pixels) with artificially generated gaps. In particular, we show the improved performance of our two-step approach over a purely Gaussian model without tail transformations.

4 de noviembre de 2020

Dr. Andrés Eduardo Gutiérrez Rodríguez, Tecnológico de Monterrey

Different Approaches to Clustering. Nowadays, the international scientific community of machine learning has an enormous campaign in favor of creating understandable models instead of black-box models. The main reason is that experts in the application area are showing reluctance due to black-box models cannot be understood by them, and consequently, their results are difficult to be explained. In unsupervised problems, where experts have not labeled objects, obtaining an explanation of the results is necessary because specialists in the application area need to understand both the applied model as well as the obtained results for finding the rationale behind each obtained clustering from a practical point of view. This proposal shows different algorithms for clustering that return an explanation about the clustering results, more than just a list of objects for each cluster. These models are known as pattern-based clustering algorithms because the explanations are in terms of patterns which are feature-value expressions for describing objects. In addition, a new model for clustering validation is presented. This model is based on classifiers and is not biased to certain clustering criteria or to validation properties. The proposed algorithms are different from traditional algorithms since they do not use any similarity functions between objects, do not infer a certain criterion or property for clustering, and they explain the results in an easy way for the final users. The good results obtained in the experiments show the validity of these models. At the end of the proposal, extensions, and future work related to this field are presented.

28 de octubre de 2020

Dr. Andrés Christen, CIMAT

¿Qué es el problema inverso bayesiano?.Presentaremos a nivel introducción el problema inverso bayesiano, o lo que se conoce como Bayesian UQ. En problemas de modelación matemática en física, biología y otras muchas áreas se utilizan ecuaciones diferenciales ordinarias, parciales, estocásticas etc. Para casos no triviales, estas no tienen soluciones explícitas y tienen que ser aproximadas numéricamente; esto es lo que se llama "el problema directo". Si ahora tenemos datos y queremos saber cuales parámetros de nuestro modelo "ajustan" mejor estos datos a esto se le suele llamar "el problema inverso". Sin embargo, el problema inverso *es* un problema de inferencia estadística y una manera de atacarlo, que ha tomado mucho ímpetu recientemente, es utilizar estadística bayesiana. Presentaremos el planteamiento general del problema inverso bayesiano, las dificultades técnicas en su aplicación y algunos problemas de frontera en el área. Mencionaremos el grupo de UQ del CIMAT y algunos de los casos de estudio que se están estudiando en física, agronomía, geofísica y otras.

7 de octubre de 2020

Dra. Martha Selene Casas Ramírez, CIMAT

Un algoritmo evolutivo para resolver un problema binivel de localización de instalaciones con preferencias de los clientes.En esta charla se analiza un problema binivel de localización de instalaciones. La meta del problema es minimizar los costos de localización y de asignación. El supuesto principal consiste en que los clientes pueden elegir libremente las instalaciones que los abastecerán. Debido a la estructura del problema, éste puede modelarse naturalmente con programación binivel, en donde en el nivel superior se abren las instalaciones y en el nivel inferior se asignan los clientes a las instalaciones abiertas en base a sus preferencias. Para resolver este problema se propone un algoritmo evolutivo. Los resultados del algoritmo ilustran su eficiencia -en términos de calidad y tiempo computacional- al compararse contra un optimizador.