Trabajos de Ingeniería en Informática

2016

2015

2014

  • Sistema de Monitoreo en Tiempo Real Utilizando RFID
  • Laboratorios virtuales en instituciones educativas mediante computación en la nube
  • Categorización de Sentimientos en Jopara: Técnicas Basadas en Léxico y en Aprendizaje de Máquina para una Mezcla de Lenguas
  • Ubicación Óptica de Medidores Digitales en un Sistema de Distribución de Potencia. Un Enfoque basado en MOEA
  • Calidad de la Protección en redes WDM. Un paradigma cuantitativo basado en Probabilidad de Recuperación
  • Reconocimientos de posturas en Secuencias de Video usando firma Punto-Contorno
  • Diseño de Interfaces de Usuarios basado en Reconocimiento del Habla
  • Modelo Ágil de Procesos para mantenimiento de Software
  • Protección con p-Cycles en Redes Ópticas WDM ante Trafico Dinámico. Un enfoque Multi-Objetivo
  • Enrutamiento Cooperativo Vs. Egoista en Redes WDM. Una Comparación en el Contexto Multiobjetivo
  • Reducción de la dimensionalidad en problemas many-objective combinando PCA y clustering espectral
  • Multicast Óptico con Protección contra Falla de Nodo. Un Enfoque basado en MOACO
  • Enrutamiento de Microfluidos en Biochips Digitales. Un Enfoque Multiobjetivo Basado en Colonia de Hormigas
  • Modelo Predictivo de Focos de Dengue Aplicado a Sistemas de Información Geográfica
  • Mejoramiento del Contraste de imágenes Digitales. Un enfoque basado en Ecuaciones Bi-Histograma con Dos Límites de Plateau
  • Detección Automática de Retinopatía Diabética Basada en Técnicas de Visión por Computadora
  • Ejercitar: Un Modelo de Aprendizaje Asistido por Computadoras
  • Sistema de Gestión del Conocimiento mediante el Uso de Repositorios Basado en Niveles de Reutilización
  • Aplicación de optimización de enjambre de Partículas de los Parámetros de CLAHE, en base a la Entropía y al Indice de Similitud Estructural
  • Generación de Soluciones de Morfología Matemática Utilizando Algoritmos Evolutivo Multiobjetivo

2013

  • Generación Automática de Casos de Prueba Unitaria Orientados a Objetos a Partir de Especificaciones de Programa
  • Diseño de Redes Robustas Bajo Incertidumbre de Tráfico Dinámico. Un  Enfoque Basado en Algoritmos Genéticos
  • Sistema de Detección de Señales de Tránsito de la República del Paraguay Utilizando Técnicas de Procesamiento Digital de Imágenes
  • Multicast Óptico con Protección contra Falla de Nodo. Un Enfoque basado en MOACO
  • Computación en la Nube: “Una nube privada para la Administración Pública
  • Algoritmos Evolutivos Multiobjetivos sobre Unidades de Procesamiento Gráfico

2012

  • Modelo de Procesos de Desarrollo de Software - Ñanduti
  • Selección Optima de P-Cycles en Redes Ópticas WSM con grupos de enlaces de riesgo compartido y restauración independiente utilizando Algoritmos Genéticos
  • PWA - Prototyping of Web Applications. Una Herramienta de Soporte a la Ingeniería de Requerimientos
  • Análisis Sistematizado de la Incorporación de la Usabilidad en el Desarrollo de Software
  • Conversión de Circuitos Cuánticos a la Arquitectura LNN
  • Propuesta Multiobjetivas de la Metaheurística Harmony Search

2011

  • Comunicaciones ópticas enrutamiento multicast multiobjetivo bajo restricciones de capa óptica
  • Ubicación de llaves telecomandadas en sistema de distribución eléctrica. Una comparación de algoritmos evolutivos y enjambre de partículas en un ambiente multiobjetivo
  • Mede: modelo de estimulación dinámica de esfuerzo. Aplicación de la dinámica de sistemas en la estimulación de esfuerzo en proyectos de ingeniería de software

2010

  • Una Nueva Propuesta de Templado Simulado Multi-objetivo
  • Sistemas de Recomendación Multicriterio Utilizando Ordenamiento de Criterios
  • XP++ Un Entorno Ágil de desarrollo Aplicado a Extreme Programming
  • Prototipo de un Sistema de Tutoría Aplicado a un Ambiente Personalizado de Aprendizaje

2009

  • Planificación Óptima de Rotación de cultivos utilizando Algoritmos evolutivos Multiobjetivos
  • Análisis experimental y mejoramiento de estrategias de juego de un agente en la competencia TAC SCM
  • Secuenciación de Contenidos Educativos Aplicando Algoritmos de Clustering y Optimización por Colonia de HormigasUbicación Óptima de Conversores de Longitud de Onda: Una Nueva Propuesta Basada en MOEA
  • Ubicación Óptima de Conversores de Longitud de Onda: Una Nueva Propuesta Basada en MOEA
  • Infraestructura Web para Comunidades y Recursos Científicos - Modelos, servicios y métricas
  • Ambiente de Simulación para las Estrategias de la Teoría de Juegos (ASETJ)
  • Modelo de Procesos para Desarrollo de Software

2008

  • Equipos de Algoritmos de Hormigas una nueva Propuesta para Optimización Multi-Objetivo
  • Selección de Cultivos Utilizando Algoritmos Evolutivos Multiobjetivos
  • AWA - Agile Web Applications - Una meteorología ágil para el desarrollo de aplicaciones Web
  • Apoyando el aprendizaje de Habilidades Empresariales mediante la utilización de un medidor

2007

  • Optimización de Enjambre de Partículas Aplicada al Problema del Cajero Viajante Bi-Objetivo
  • Equipo de algoritmos asíncronos para satisfacción de fórmulas booleanas carlos
  • Equipo de Algoritmos Meméticos con Adaptación Multinivel para Optimización Multiobjetivo (Multilevel Adaprive Team Algorithm)
  • MIDS: Modelo Inicial de Desarrollo de Software - Una metodología ágil como iniciación  en el uso de modelos de procesos de Software

2006

  • Optimización Multi-Objetivo basada en Colonias de Hormigas Teoría y Estrategias de Paralelización
  • Implementación de Infraestructura de Clave Pública en la Red de la Universidad Nacional de Asunción
  • Arquitectura Distribuidora Dsoara para Detección de Intrusos

 

2016

 

Estimación de Desplazamiento de Contaminantes Mediante Modelo de Redes Neuronales Artificiales

 

AUTOR: Román Orzuza, Claudia Lorena.

ASESOR: González Codas, Guillermo Jacobo.

 

ABSTRACT: The Patiño aquifer has three main problems, the first one is related to contamination, associated with the absence (in the present or the past) of sanitary sewer systems. The second problem is overexploitation, due to the excessive extractions of water from the aquifer. The third problem, a side effect of the second, is the entrance of inferior quality and salty water, caused by a pressure decompensation from water level decrease in the aquifer. This paper presents the design and implementation of a predictive model of Artificial Neural Networks (ANN), to estimate the offset of contaminants in the Patiño aquifer, with Geographic Information Systems (GIS), to show the predictions on a map of the mentioned aquifer. The model is implemented with the Multi-Layer Perceptron (MLP) architecture and uses the back propagation algorithm for the learning. The data for the training, evaluation and test for the ANN model, were generated from information obtained from the Secretary of Environment (SEAM) in Paraguay, geographically referenced, in order to generate enough geographical information to contribute with useful tools that make the process of analysis easier. In turn, this data should help towards making efficient and effective decisions for resolving the problems of the Patiño aquifer. Keywords—Artificial Neural Network; Multi-Layer Perceptron;

 

Identificación de Características de Estudiantes con Bajo Rendimiento Basado en KDD

 

AUTOR: Trinidad Candía, Ana Belén.

ASESORES: Pinto Roa, Diego  Pedro e Inchaustti Martínez, Wilfrido Félix Antonio.

 

RESUMEN: La evaluación del rendimiento académico de los estudiantes es un tema de interés en cualquier institución educativa. Desafortunadamente, en algunos casos, el rendimiento de los estudiantes no es el esperado. En algunas asignaturas particulares, este patrón sobresale. Es decir, la mayoría de los estudiantes matriculados no aprueban la asignatura.

Para identificar las características de los estudiantes que no aprueban ciertas asignaturas, se puede recurrir a los datos generados en los diferentes departamentos de una institución educativa. Debido al volumen de estos datos se hace indispensable y necesaria la utilización de tecnologías y disciplinas de la ciencia de la computación. Entre estas disciplinas se puede citar a las técnicas de Data Mining.

En este trabajo de investigación, se pretende obtener modelos descriptivos que permitan identificar cuáles son algunas de las características de los estudiantes que no aprueban ciertas asignaturas seleccionadas para el caso de estudio. Para llegar a esta finalidad, se propone seguir el proceso Knowledge Discovery in Databases.

Par el caso de estudio, se seleccionaron asignaturas de la carrera de Ingeniería en Informática de la Facultad Politécnica de la Universidad Nacional de Asunción. Dichas asignaturas se caracterizan por un alto índice de reprobación y/o por una secuencia de correlativas que se extiende por varios semestres de la carrera.

Como resultado se obtuvieron diferentes modelos descriptivos que proporcionan una idea de cuáles son las características más resaltantes en los estudiantes que no aprobaron las asignaturas del caso de estudio.

 

Reconocimiento de rostro y expresiones faciales de dolor en ambientes inteligentes

 

AUTORES: Araujo Vert, Pablo Milciades y Martínez Alfonso, Lamia Elizabeth.

ASESORES: Pinto Roa, Diego  Pedro.

 

RESUMEN: La Inteligencia Ambiental es un área de la Computación que se dirige a tener espacios, tecnológicamente enriquecidos que apoyen a las personas en su vida diaria (Cook et al., 2009). Las principales características que se presentan en los sistemas de Inteligencia Ambiental son: poder detectar información del entorno, razonar con los datos acumulados y seleccionar las acciones a tomar con el fin de beneficiar a sus usuarios (Cook et al., 2009).

Entre los campos de aplicación encontrados, destacan los siguientes: casas inteligentes, espacios de trabajo, entornos educativos y servicios de salud (Hospitales Inteligentes). Este último es el campo de aplicación donde se enfoca nuestro trabajo.

Un Hospital Inteligente es aquel que funciona de modo más eficiente a la hora de combinar las diversas tecnologías a fin de mejorar la atención y la calidad del cuidado de pacientes.

Nuestro trabajo apunta en particular al problema de monitoreo de pacientes intrahospitalarios en salas de recuperación en donde el estado de dolor extremo debe ser monitoreado constantemente para que el personal médico tome acciones inmediatas. A través de sistemas como el detector de rostro, reconocedor de rostros y el reconocedor de expresiones faciales, el monitoreo de pacientes a través de cámaras de vigilancias puede ser una realidad.

Sin embargo no se ha encontrado en la literatura el desarrollo de una aplicación que considere los tres sistemas juntos para resolver esta problemática, es por eso que desarrollamos un sistema de monitoreo capaz de identificar un rostro y detectar si un individuo se encuentra con una expresión de dolor a través del reconocimiento de expresiones e identificar a la misma de entre un gran número de rostros de pacientes almacenados a través del reconocimiento de rostros para luego tomar una decisión, como ejemplo informar el estado del paciente al administrador del sistema o activar una alarma.

 

Método Computacional para la recuperación y Extracción Automática

 

AUTORES: Benegas, Bianca Stefania y Palacios Romero, Claudia Noemi.

ASESORES: Legal Ayala, Horacio y Vázquez Noguera, José Luis.

 

RESUMEN: Algunos centros meteorológicos almacenan en sus instalaciones una gran cantidad de bandas de papel que contienen mediciones de presión atmosférica, temperatura, humedad y precipitación. Las mediciones meteorológicas se representan en forma de línea continúa trazada sobre una cartilla dividida en períodos de tiempo.

Las bandas de papel corren peligro de perderse ya sea por el deterioro que sufren a causa del paso del tiempo, factores como la humedad o algún siniestro. La lectura y el registro de la información se realiza de forma manual y para ello se emplea una considerable cantidad de tiempo y esfuerzo.

La recuperación de las bandas de papel permitirá contar con una base de datos de imágenes y la extracción automática permitirá obtener datos más precisos y frecuentes de las mediciones.

Este trabajo propone un método computacional que consiste en el procesamiento digital y análisis de imágenes escaneadas aplicando un modelo matemático para el cálculo de las mediciones. Los métodos de binarización, operadores morfológicos y filtros fueron aplicados según sus métricas de desempeño (exactitud, precisión y tasa de error).

La aplicación de estos procedimientos generó una curva representativa que fue introducida al modelo matemático y permitió calcular los valores de la medición en los horarios correspondientes. Los resultados arrojaron un promedio de error de 0,1676 hPa de presión y el tiempo promedio de procesamiento por banda es de 1,03 segundos.

 

Un enfoque distribuido para la conversión de  circuitos  cuánticos a la arquitectura LNN

 

AUTORES: Fernández Caje, Joni y Meza romero, Edgar Inocencio.

ASESORES: Baran Cegla, Benjamín y Lima Molinari, Joaquín Lima.

 

RESUMEN: La computación cuántica ganó una sorpresiva preponderancia cuando Peter Shor [1] presentó en 1994 un algoritmo con la capacidad de quebrar en tiempo polinomial la seguridad del sistema de encriptado de Rivest, Shamir y Adleman (RSA) [2], muy utilizado en los certificados digitales y transacciones electrónicas hoy día, cuya demostración práctica se llevó a cabo en el 2001 por un grupo de IBM.

 

2015

Metodología para estimar pérdida de carbono a través de procesamiento de imágenes satelitales. Caso de uso Chaco Paraguayo

 

AUTOR: Vera Aquino, Santiago Smael.

ASESORES: Legal Ayala, Horacio y Vázquez Noguera, José Luis.

 

RESUMEN: El cambio climático es un problema de carácter mundial, que engloba distintos factores ligadas a las actividades humanas. Los bosques constituyen un medio principal de conservación de carbono, donde la deforestación y degradación contribuyen al aumento de los Gases de efecto invernadero (GEI). En los últimos 50 años la explotación Forestal y el cambio en el uso de la tierra, produjo la pérdida del 90 % de los bosques en la región Oriental del Paraguay, generados por degradaciones y deforestaciones en los suelos con destino a una progresiva desertificación que atenta contra la biodiversidad y los sumideros de carbono. A diferencia de la región oriental, en el occidente o Chaco Paraguayo aplicar mecanismos de control ambiental implica elevados costo, por lo que el empleo de metodologías que ayuden a determinar zonas de riesgos disminuirá en cierta proporción los gastos en monitoreo. Esta investigación elabora una metodología práctica y dinámica para identificar focos de pérdidas de carbono forestal empleando procesamiento digital de imágenes satelitales. Una vez identificado focos de riesgos, permitirá fortalecer planes y estrategias en los controles, con acciones más óptimas y rigurosas en base a las estimaciones hechas.

La metodología propuesta cuenta con dos procedimientos generales, donde las bandas infrarrojas cercanas y rojas de las imágenes satelitales para dos fechas, constituyen entradas

En la generación de un mapa de perdida forestal (degradación y deforestación) con su correspondiente estimación de carbono perdidos en el área evaluada. Los procedimientos son los siguientes:

Detección de cambio Forestal: mediante análisis estadísticos previos hechos a índices de vegetación y algoritmos basados en parámetros estadísticos para la detección del cambio, nos permiten obtener una máscara de pérdida forestal.

Estimación de Perdida de cambio forestal: se hallo una correlación moderada pr2 “ 0,509125q entre el mapa global de carbono y el índice de vegetación, proporcionando

Una ecuación lineal que transforma en toneladas de carbono por hectárea dicho índice. En el chaco paraguayo, específicamente parte del distrito de Filadelfia, departamento de Boquerón, fueron determinadas áreas en base a la presencia forestal (urbana, rural y húmeda), de manera a evaluar la metodología propuesta con distintos tipos de uso del suelo, sumándole un criterio de fiabilidad a la detección del cambio. Zonas rurales obtuvieron precisiones globales mayores al 85 % y coeficientes Kappa moderadas como también considerables, siendo la más satisfactorias en las pruebas experimentales. Estas pruebas fueron hechas a través de comparaciones entre resultados y estudios de perdida boscosa realizado al Paraguay, por The Global Land Cover Facility de University of Maryland Institute for Advanced Computer Studies.

La metodología propuesta nos brinda una herramienta valida en la generación de indicadores ambientales para monitoreos de áreas extensas. Estos indicadores representan alertas en áreas donde la deforestación y degradación forestal transforman los sumideros de carbono a zonas deserticas o productivas, contribuyendo así al cambio climático.

 

Detector de Anomalías orientada a aplicaciones web y web services

 

AUTOR: Giménez, José Darío.

ASESOR: Cappo Araujo, Cristian Ramón.

 

RESUMEN: Las aplicaciones web se han convertido en los sistemas que más demanda tienen para ser desarrollados en la actualidad. Esto es debido a numerosas ventajas que poseen con respecto a los sistemas de “escritorio”. Debido a la utilización masiva de los sistemas web, estos se han convertido en uno de los principales objetivos de ciberataques, los cuales intentan identificar alguna vulnerabilidad para obtener información valiosa o dañar al sistema web.

En este trabajo proponemos un detector de intrusión online basado en anomalías que implementa varios modelos de detección propuestos en la literatura. A diferencia de los detectores basados en firmas los basados en anomalías son capaces de detectar ataques para los cuales no existe aún un patrón definido. Nuestro detector incluye nuevos modelos de anomalías

para las peticiones HTTP basadas en los formatos XML y JSON que usualmente son utilizados en aplicaciones basadas en web services y Asynchronous Javascript and XML (AJAX). También presentamos un framework para incluir y evaluar nuevos modelos en el detector. Las pruebas de detección y de tiempo de respuesta mostraron resultados auspiciosos y competitivos con respecto a otros detectores.

 

Utilización del Sensor Kinect con Herramientas Open Source para el Desarrollo de Juegos Educativos para Niños en edad Pre-escolar

 

AUTOR: Fernández Valdez, Romina Celeste.

ASESOR: Von Lucken, Christian Daniel.

 

RESUMEN: El sensor Kinect es un dispositivo que permite la interacción humano-computador a través de movimientos de las manos, brazos y el cuerpo entero sin necesidad de controloes o marcas. Fue lanzado en noviembre del 2010 como un accesorio de la consola Xbox 360 de Microsoft, y forma parte de un conjunto de tecnologías basadas en detección de movimiento que aparecieron durante la séptima generación de consolas de videojuegos. Aunque originalmente el Kinect fue diseñado para su uso con la consola Xbox 360, poco después de su lanzamiento aparecieron drivers y herramientas de programación que permiten utilizar este dispositivo como una PC. En la actualidad existen muchos trabajos y aplicaciones que explotan la tecnología del sensor Kinect fuera del mercado de los videojuegos, en áreas tales como la robótica y la medicina.  Los dispositivos como el sensor Kinect tienen un gran potencial en el área de la educación, ya que el uso de tecnologías en el aula se considera un incentivo para captar la atención de los estudiantes. Particularmente, en la educación pre-escolar es común el uso de juegos como método de enseñanza. También durante la edad pre-escolar los niños desarrollan la coordinación mano-ojo una habilidad que puede ejercitarse con el uso de tecnologías como la del Kinect. En este trabajo se desarrolló un prototipo que utiliza el Kinect como dispositivo de entrada y que implementa juegos dirigidos a niños en edad pre-escolar. El mismo se puso a prueba en un centro educativo para niños de la edad mencionada, y se pidió a los docentes que evalúen la herramienta a través de un cuestionario. La evaluación resultó positiva, y se pudo concluir que este tipo de herramientas tiene un gran potencial dentro del campo educativo, aunque es necesario definir estándares que ayuden a los programadores a diseñar interacciones lo más intuitivas posibles.

 

Aproximación Colaborativa del Tránsito Vehicular Basada en Aplicaciones Móviles

 

AUTORES: Campuzano  Romero, Alfredo Daniel y López Rojas, Rubén Darío.

ASESOR: Lima Molinari, Joaquín Quinto.

 

RESUMEN: El creciente aumento del parque automotor en los países en vías de desarrollo representa un problema de difícil solución debido principalmente a que sus ciudades no cuentan con infraestructura vial bien planificada y tampoco con tecnología instalada para monitorear el estado del tráfico, lo cual dificulta el tránsito diario y deteriora la calidad de vida de los ciudadanos. Debido a esto se hace evidente la necesidad de re-colectar y analizar información sobre el tránsito de forma barata y sencilla pero a la vez efectiva. Aprovechando que la utilización de teléfonos móviles inteligentes, equipados con sensores GPS, está creciendo a un ritmo considerable surge la posibilidad  de utilizar esta tecnología para obtener información acerca del tráfico vehicular de forma eficiente y que posteriormente sirva de apoyo para la optimización del mismo.

En este trabajo se presentan detalles de implementación del sistema denominado Autotracks, que permite recolectar y procesar información del tránsito vehicular a través de dispositivos móviles para aproximar el estado del tráfico en tiempo real. Se utilizó un esquema de Floating Car Data en combinación con técnicas de detección de actividad para monitorear la ubicación de los vehículos en movimiento tomándose muestras de su recorrido. La trayectoria real de los vehículos por las calles de la ciudad es luego determinada mediante un proceso de Map Matching. Luego, para un período de tiempo dado, todas las trayectorias determinadas pueden ser agregadas entre si para aproximar el estado del tráfico en ese momento. Así, la información del estado del tráfico puede ser consultada en tiempo real a través de la aplicación móvil o la aplicación web desarrolladas para el efecto. Además, toda la información  generada es almacenada en una base de datos GIS, lo que deja la posibilidad de poder aprovechar posteriormente esta información para otras finalidades tales como la planificación de acciones de  mejoramiento del tránsito vehicular

 

Virtualización de Redes de Datos. Un enfoque Multi-Objetivo

 

AUTORES: Aceval Sosa, Cristian Rodrigo y Franco Benegas, Víctor Ricardo.

ASESOR: Dávalos Giménez, Enrique Javier.

 

RESUMEN: El problema “Virtual Network Embedding” o VNE permite el establecimiento óptimo de redes virtuales independientes entre sí, utilizando recursos de una misma red de infraestructura o de sustrato. Por la complejidad del problema, las investigaciones anteriores se han centrado en el dise ̃no de algoritmos basados en la optimizaci ́on de un solo objetivo. Sin embargo, en este trabajo, presentamos el algoritmo multi-objetivo VNE-MO-ILP para la resoluci ́on del problema VNE en su versión dinámica. Los resultados de las evaluaciones, utilizando un simulador de red, son promisorios e indican resultados superiores o comparables a los algoritmos del estado del arte de este problema.

 

Predicción  de Series Temporales a Corto Plazo Utilizando un Enfoque Cooperativo Competitivo Multiobjetivo

 

AUTORES: Avalos Godoy, Manuel Alejandro y Ferreira Duarte, Arturo Ramón.

ASESOR: Von Lucken, Christian Daniel.

 

RESUMEN: Este trabajo presenta un nuevo modelo para entrenar redes neuronales con funciones de base radial para realizar predicciones de series temporales a corto plazo por medio de una red neuronal. El entrenamiento se realiza en dos fases. En la primera fase se entrenan los pesos asociados a las funciones de base radial (RBF), y en la segunda fase, se utiliza un modelo evolutivo que se basa en un algoritmo evolutivo cooperativo competitivo multiobjetivo para determinar los parámetros con que cuenta cada nodo de la red RBF. La propuesta presentada en este trabajo ha sido incluída dentro de la herramienta de minería de datos WEKA [Hall et al. (2013)]. El modelo se ha aplicado a problemas reales de predicción de series temporales y los resultados obtenidos por el modelo propuesto son mejores a los de un modelo de entrenamiento evolutivo cooperativo competitivo mono-objetivo propuesto en [Pérez-Godoy et al. (2010)]. Igualmente, provee mejores resultados que varios de los métodos de predicción del estado del arte incluídos en WEKA.

 

Diagnóstico de Lesiones Melanocíticas Asistido por Computadora  Basado en el Método ABCD

 

AUTORES: Leguizamón Correa, Deisy Natalia y Bareiro Paniagua, Laura Raquel.

ASESORES: Pinto Roa, Diego Pedro; Vázquez Noguera, José Luis y Salgueiro Toledo, Lizza Amada.

 

RESUMEN: La presencia de lesiones melanocíticas en la piel se hace cada vez más común, prana detección se vuelve vital para la toma de decisión en cuanto al tratamiento que se debe seguir. Existen dos tipos de lesiones melanocíticas, las benignas y las malignas. Las lesiones malignas se denominan Melanoma el cual es un cáncer de piel producido por el crecimiento descontrolado de los melanocitos atípicos (células que acumulan pigmento).

 

La propagación de los melanocitos por todo el cuerpo lo convierte en el cáncer de piel más letal. En las últimas décadas el diagnóstico asistido por computadora es utilizado para asistir a los profesionales médicos, sin embargo, aún no existe una herramienta mundialmente aceptada para el diagnóstico del melanoma, lo que constituye un área de constantes desafíos. Por este motivo, en este trabajo se propone una herramienta que proporcione soporte al diagnóstico de esta herramienta está compuesta por 4 módulos: Preprocesamiento, Segmentación, Extracción de Características y Clasificación. La entrada como dato inicial al sistema es la imagen dermatoscópica, que fueron tomadas por un instrumento con un sistema de amplificación de la imagen llamado dermatoscopio. El Preprocesamiento consiste en la eliminación de pelos en la imagen. La segmentación consiste en aislar el objeto de inter ́es, la lesión. La extracción de características se realiza con la ayuda de un método muy utilizado por los dermatólogos en la inspección visual, el ABCD, que consiste en el estudio de la asimetría, los bordes, el color y las estructuras dermatoscópicas [SRC+94]. Finalmente, la clasificación es realizada por medio de un clasificador binario SVM (Support Vector machine) [CV95] con la cual se obtiene el diagnóstico de la lesión.

En las pruebas experimentales se utilizo la Validación Cruzada Aleatoria, donde se realiaron k iteraciones y por cada iteración se eligió aleatoriamente 2 conjuntos complementarios de las 104 imágenes, el conjunto de entrenamiento que contiene 32 imágenes, 12 benignas y 20 malignas; y el conjunto de prueba que contiene el resto de las imágenes (72 imágenes). Los resultados indican que la propuesta tiene 91,67 % de exactitud, 95,12 % de sensibilidad y 79,58 % de especificidad. Estos resultados son favorables considerando los resultados del diagnóstico mediante dermatoscopía, aportando en los avances del área de la dermatología y fomentando la utilización de nuevos paradigmas en la detección del melanoma.

 

Sistema de Información Geográfica en Tiempo Real basado en Mensajes USSD para Identificación de Zonas de Riesgo Epidemiológico

 

AUTORES: Talavera Maldonado, Julia Ysabel y Ochoa Araya, Silvia Nathalia del Carmen.

ASESOR: Paciello Coronel, Julio Manuel.

 

RESUMEN: La identificación de zonas de riesgo epidemiológico constituye uno de los principales problemas en salud pública, motivo por el cual se necesitan estrategias que permitan administrar adecuadamente la información y así facilitar el diseño de acciones de control y prevención de enfermedades en las zonas afectadas.

El presente trabajo propone un modelo para agilizar el proceso de recolección de datos geográficos de casos sospechosos o confirmados de enfermedades, utilizando la tecnología móvil Unstructured Supplementary Service Data (USSD), atendiendo su amplia adopción incluso en países en desarrollo como es el caso del Paraguay. A partir de los datos enviados por los suscriptores a través de sus dispositivos móviles, se podrán visualizar en tiempo real potenciales zonas de riesgo epidemiológico en un Geographic Information Systems (GIS), de manera a que dicha información sirva como herramienta de soporte para la toma de decisiones.

Durante las pruebas realizadas con el prototipo del modelo se lograron obtener mapas de riesgo de enfermedades por departamento y distrito, que permitieron realizar un estudio comparativo del modelo propuesto contra el modelo convencional utilizado actualmente por la Dirección General de Vigilancia de la Salud (DGVS), donde se pudieron observar las fortalezas del modelo propuesto, entre las que se destacan el alcance poblacional, la disponibilidad de la información en tiempo real, calidad del producto, e interoperabilidad.

Como principal aporte de este trabajo se puede mencionar que un GIS en tiempo real basado en mensajes USSD contribuirá como una solución en el área de la vigilancia epidemiológica, que puede ser fácilmente escalable a otros escenarios. La efectividad de esta herramienta dependerá en gran medida de la credibilidad de los datos proporcionados, además de la experiencia de las personas que utilizan el sistema e interpretan los resultados.

 

Protección basada en calidad de servicio (QoS) para  conexiones en redes Ópticas WDM aplicando Optimización multi-objetivo basada en Colonia de Hormigas

 

AUTORES: Núñez  Zymanscki, Tania Belén y Ayala Zarza, Víctor Arnaldo.

ASESORES: Baran Cegla, Benjamín y Paciello Coronel, Julio Manuel.

 

RESUMEN: El presente trabajo resuelve el problema de ruteo y asignación de longitudes de onda (RWA, Routing and Wavelength Assignment), teniendo en cuenta el tipo o calidad de servicio (Quality of Service, QoS) solicitado por el cliente. Se presenta una modificación al algoritmo MOACS (Multi-Objective Ant Colony System), Obteniendo resultados prometedores en comparación a la propuesta MOACS original. Se realizó además una implementación con Programación Lineal Entera Mixta (Mixed Integer Linear Programming, MILP) para validad el modelo propuesto.

 

Juegos serios como apoyo a la formación de profesionales: Una aplicación al área de enfermería

 

AUTORES: González Leguizamón, Mirta Beatriz y Volpe Torres, Arturo Pedro Enrique.

ASESOR: Abente Lahaye, Martin.

 

RESUMEN: Este trabajo describe el uso de las Tecnologías  de la información y la comunicación (TIC) en el proceso de aprendizaje, especialmente en forma de juegos serios como área de investigación. Se da una breve reseña de la inclusión de las tecnologías en la educación, desde su uso tradicional como proveedor de información hasta su rol actual en la construcción de conocimiento.

Se describen las principales características y áreas de aplicación de los juegos serios como herramienta educativa. Se introduce a los juegos serios como solución tecnológica a las problemáticas del área de enfermería, las problemáticas y los detalles de la solución en forma de juego serio también son Finalmente, se detallan las metodologías utilizadas para evaluar la solución y los resultados obtenidos más importantes.

Estos resultados junto con la experiencia de desarrollar la solución permiten obtener conclusiones relacionadas al diseño, implementación y evaluación de juegos serios orientados a la educación, así como también identificar posibles trabajos futuros Keywords—Juegos serios, simulación, enfermería, educación, aprendizaje, tecnologías de la información y la educación.

 

Monitorización y evaluación de la calidad de la experiencia para servicios de datos móviles: un enfoque basado en Machine Learning”

 

AUTORES: Quiñonez, Brenda Romina Lujan y Fernández Cabral, Luis Fernando.

ASESORES: Pinto Roa, Diego Pedro; Núñez Castillo, Carlos Heriberto y García Díaz, María Elena.

 

RESUMEN: En la actualidad, se experimenta un importante aumento en el tráfico de datos a través de las redes móviles. Cuando existe gran cantidad de datos intercambiados, uno de los principales desafíos a afrontar es la degradación de la calidad percibida por los usuarios de los servicios móviles. Desde el punto de vista de los operadores, la calidad de la experiencia (QoE) juega un rol importante en el modelo de negocio, ya que es un factor clave de éxito para el posicionamiento de las empresas de telecomunicaciones y la lealtad de los usuarios. Este hecho ha llevado a los operadores de redes móviles y a la comunidad científica a desarrollar métodos y estrategias que permitan medir el QoE. Muchos estudios se han centrado en identificar la relación entre los parámetros de la calidad de servicio (QoS) y la percepción del usuario. Algunos se han enfocado en identificar la relación entre QoE y QoS para un tipo de tráfico determinado, mientras que otros han tratado de definir un modelo genérico que establezca una relación entre ambos conceptos. Este trabajo se enfoca en el establecimiento de un modelo de monitoreo y evaluación de QoE considerando parámetros a nivel de red, dispositivo y aplicación para dos contextos de uso habituales: navegación web y video streaming.

 

Para este fin, se desarrollaron una plataforma de transmisión de datos móviles y una aplicación Android que se utilizan en el proceso de recolección de datos. Los datos obtenidos se emplean como entrada de distintos algoritmos de aprendizaje automático, que posteriormente son comparados. Finalmente se crea un modelo que permite estimar el QoE en los contextos de uso mencionados utilizando los algoritmos más adecuados.

 

Aplicación de algoritmos MOACO al TSP many-objective

 

AUTORES: Riveros Núñez, Prisciliano Francisco y Benítez Dietrich, Nestor Manuel.

ASESORES: DSc. Baran Cegla, Benjamín y Paciello Coronel, Julio Manuel.

   

RESUMEN: Los algoritmos de optimización basados en colonias de hormigas han sido exitosamente utilizados para resolver problemas que involucran 2 o 3 objetivos. La mayoría de las investigaciones realizadas con algoritmos evolutivos han mostrado que cuando se incrementa la cantidad de objetivos, estas

técnicas pierden su potencial y consecuentemente sus resultados se deterioran significativamente. Este comportamiento también se presenta en los algoritmos de optimización de colonias de hormigas.

En este trabajo se aborda el problema de la disminución de rendimiento que presentan los algoritmos de optimización basados en colonias de hormigas cuando resuelven problemas denominados many-objective. Como caso de prueba se optó por el popular Problema del Vendedor Viajante (TSP).

En esta investigación se identificó la problemática existente en la asignación del cuándo se debe resolver problemas many-objective utilizando algoritmos MOACO. Este parámetro es sumamente importante en el ámbito de los algoritmos MOACO ya que es utilizado para guiar la búsqueda de soluciones en distintos lugares del espacio de soluciones posibles. Para solucionar esta problemática, este trabajo propone una nueva estrategia de asignación de la denominada Asignación base-p. Dicha técnica fue aplicada a un algoritmo MOACO y fue sometida a distintas pruebas experimentales sobre instancias generadas del TSP many-objective utilizando las métricas del Hipervolumen y Cobertura.

La Asignación base-p fue comparada con algoritmos MOACO existentes y además, con el NSGA2 demostrándose que esta nueva estrategia calcula un mejor Hipervolumen cuando se resuelven problemas denominados many-objective. Como aporte principal, este trabajo recomienda la utilización de la técnica de Asignación base-p para resolver problemas many-objective utilizando algoritmos MOACO.

 

Asignación de Redes Virtuales Infraestructuras Opticas con Traffic Grooming

 

AUTOR: Tileria Palacios, Marcos Daniel y Yu Villalba, Aloysius.

ASESOR: Dávalos Giménez, Enrique Javier.

 

RESUMEN: Las técnicas de Virtualización de redes pueden erradicar la resistencia a cambios net y estimular la aparición de nuevas arquitecturas de red y aplicaciones. La capacidad de soportar arquitecturas heterogéneas en un mismo sustrato físico provee flexibilidad, diversidad, facilita la administración y el mantenimiento de las redes. Las redes  ópticas son sustratos ideales para el aprovisionamiento de servicios virtuales con requerimientos de gran ancho de banda. El problema de la asignación eficiente de redes virtuales en redes  ptico es denominado VONE (Virtual Optical Network Embedding). En este trabajo se propone un algoritmo heur ́ısitico, denominado Sd-Mapping, para resolver el problema VONE utilizando la técnica de traffic grooming a fin de acomodar en una misma longitud de onda varias solicitudes de menor requerimiento que la capacidad de un canal  ptico. El algoritmo propuesto es comparado con un algoritmo de referencia del estado del arte teniendo en cuenta las siguientes cuatro métricas a minimizar: Cantidad de longitudes de onda, Costo ponderado, Promedio de saltos físicos y Utilización de Grooming ports. Los resultados experimentales muestran que la propuesta es una alternativa válida ya que consiguió resultados prometedores en las métricas de Cantidad de longitudes de onda, Costo ponderado y Promedio de saltos físicos en tres topologías de prueba dominando en el sentido Pareto en la mayor ́ıa de las instancias consideradas al algoritmo del estado del arte. Además, se analizaron cinco políticas de grooming distintas llegando a la conclusión que la política que minimiza la cantidad de saltos físicos (MinThp) es la preferida al evaluar simultáneamente las cuatro métricas de desempeño.

 

Algoritmos de indexación basado en permutaciones orientado a reconocimiento facial

 

AUTOR: Gonzalez Britez, Liz Jarmila.

ASESOR: Von Lucken, Christian Daniel.

 

RESUMEN: Los sistemas de reconocimiento facial que manejan bases de datos con miles de imágenes se enfrentan al problema de ralentización del proceso de búsqueda cuando por cada imagen de consulta se debe verificar cada objeto de la base de datos. A fin de aliviar la carga de estos sistemas y reducir el tiempo de respuesta se han desarrollado alternativas para reducir o eliminar la necesidad de la búsqueda exhaustiva de imágenes. Los métodos de indexación son una de estas alternativas. En este trabajo se presenta una nueva técnica de indexación basada en permutaciones que, en combinación con el algoritmo de Análisis de Componentes Principales, optimiza el almacenamiento de las imágenes y acelera el proceso al predecir la similitud entre los objetos. Para evaluar el método propuesto, denominado Emiap, éste se compara con técnicas representativas del estado del arte utilizando el conjunto de imágenes de la base de datos FERET. Los resultados experimentales obtenidos muestran que el método propuesto en este trabajo es competitivo con otras técnicas del estado de arte.

 

Arquitectura en la nube para la interoperabilidad entre sistemas HCE aplicando FHIR y el enfoque de dos niveles

 

AUTORES: López Estigarribia, Pablo José y Romero Riveros, Jesús María.

ASESORES: Villalba, Cynthia; Vázquez Noguera, José Luis y Pinto Roa, Diego Pedro.

 

RESUMEN: Muchos centros asistenciales continúan registrando los datos de la historia clínica en papel. Aquellos que cuentan con un sistema de Historia Clínica Electrónica (HCE) generalmente no poseen ´ mecanismos de interoperabilidad, o bien existen implementaciones de manera ad-hoc entre sistemas. Las HCE utilizan diversos modelos de información y representación de datos, lo que dificulta ´ el intercambio de información. En consecuencia, la historia del ´ paciente se encuentra fragmentada y aislada en los distintos centros asistenciales en los cuales fue atendido. La propuesta de este trabajo consiste en una arquitectura para el intercambio de información centralizado en la nube mediante la integración de las Historias Clínicas Electrónicas del paciente en una HCE  única y estandarizada. La información estar ´ a almacenada en ´ un repositorio de alta disponibilidad y los interesados podrán acceder a la HCE integrada del paciente realizando peticiones únicamente al sistema central, abstray endose de la cantidad de sistemas heterogéneos participantes. Se utilizar  al enfoque de ´ dos niveles para el modelado de información en base al estándar  FHIR de HL7. La arquitectura propuesta fue evaluada y comparada con otros trabajos relacionados a través de una adaptación´ del framework An Analysis Framework for Electronic Health Record Systems, consiguiendo puntaje ideal en la evaluación sobre ´ la búsqueda de la interoperabilidad entre sistemas HCE

 

2014

 

Sistema de Monitoreo en Tiempo Real Utilizando RFID

 

AUTORES: - Caplí Cabello, Alberto Guzmán

                   - González Núñez, Nora Josefina

 

RESUMEN: La gestión de inventario es de gran importancia para cualquier compañía, debido a que consiste en una parte esencial de los costos de operación de la misma. Por este motivo, muchas organizaciones han automatizado sus procesos con el  fin de minimizar errores y reducir costos. Sin embargo, la forma de obtener el inventario exacto, de manera e ciente, sigue siendo un desafío. Por ejemplo, la investigación realizada por Kang y Gershwin muestra que la precisión global del inventario es sólo del 51 %.

Esta investigación presenta un sistema de monitoreo de bienes en tiempo real utilizando tecnología la RFID (Radio Frequency Identi cation). La propuesta permite la localización física de los bienes dentro del  área monitoreada. Teniendo en cuenta factores económicos, el análisis realizado muestra que el RFID activo Wi-Fi es el m as apropiado para  este tipo de sistema. Durante las pruebas con el prototipo del sistema y la simulación de equipos RFID Wi-Fi se logró obtener una exactitud de 2.3 m en el mejor de los casos.

Como principal aporte de este trabajo se pueden mencionar que el sistema de monitoreo propuesto contribuir a para una solución a una necesidad del mercado, teniendo en cuenta que a nivel nacional no existen antecedentes de sistemas similares. Este trabajo permitir a las empresas acceder a la solución con un menor costo de infraestructura, impulsando la e ciencia operativa de las compañías. La innovación resultar a adecuada para la localización de bienes valiosos dentro de las instalaciones de una institución.

Además, ayudar a obtener una correcta administración de los recursos.

 

Laboratorios virtuales en instituciones educativas mediante computación en la nube

 

AUTORES: - Benítez Gonzalez, Marcos Sebastián

                  - González Martínez, Luis Fernando

 

RESUMEN: La calidad de la educación en el Paraguay representa siempre un tema importante en la realidad nacional. La continua búsqueda de estrategias para el mejoramiento de la calidad de enseñanza es una responsabilidad de los profesionales paraguayos de todas las disciplinas, y la utilización de herramientas TIC que permitan contribuir a este proceso recae sobre los profesionales del área informática.

En la actualidad, la computación en la nube es una tecnología emergente y propone soluciones que posibilitan la reducción de la brecha digital de los distintos puntos geográficos del Paraguay.

Permite acceso a recursos computacionales por conexión de red que son tarifados proporcionalmente a su uso. Los servicios son entregados en diferentes modelos: infraestructura, plataforma y software.

Los principales beneficios esperados de la computación en la nube son: delegar la administración de la infraestructura al proveedor de servicios, evitar la inversión inicial en infraestructura TIC y permitir la modificación de la cantidad de recursos utilizados, pagando solo por los recursos utilizados.

Este trabajo presenta un sistema de gestión basado en un alto nivel de abstracción, para la gestión de laboratorios virtuales en la Facultad Politécnica de la Universidad Nacional de Asunción. Los laboratorios virtuales son desplegados en una infraestructura de nube, utilizando un software de gestión de nube especializado, que sirve como orquestador de los recursos computacionales en un clúster de estaciones de trabajo.

Se presentan resultados experimentales obtenidos en las instalaciones de la Facultad Politécnica, que permiten la planificación de escalabilidad y rendimiento de la plataforma. Además se exploran las implicancias técnicas de una implementación distribuida, para permitir el acceso a una infraestructura centralizada incluso desde las sedes filiales de la facultad.

 

Categorización de Sentimientos en Jopara: Técnicas Basadas en Léxico y en Aprendizaje de Máquina para una Mezcla de Lenguas

 

AUTORES: - Amarilla Oviedo, Pedro José

                  - Ríos Núñez, Adolfo Alfredo

 

RESUMEN: En este trabajo proponemos la detección de polaridad a partir de expresiones coloquiales propias de una población bilingüe. El lenguaje que abordamos se denomina \Jopara", compuesto por la combinación de Español y Guaraní, hablado en Paraguay, similar al \Louisiana's Creole" en los Estados Unidos. Categorizamos la polaridad en tres clases (positivas, negativas y neutrales) y abordamos el problema mediante la aplicación de técnicas basadas en léxico y en aprendizaje de máquina. En este documento, se describen el escenario de aplicación, el proceso de construcción del léxico bilingüe y el preprocesamiento de atributos para constituir la entrada de los clasificadores.

Los datos de entrada fueron extra  dos de Twitter, de tal manera que las expresiones analizadas son muy similares al lenguaje natural. 3000 tuits fueron extra  dos para construir el léxico, de los cuales 1500 fueron utilizados además para entrenar los clasificadores; un conjunto independiente de 300 tuits fueron etiquetados con propósitos de evaluación. Finalmente, los resultados son desplegados para comparar el desempeño de estas técnicas cuando son aplicadas a este tipo de lenguaje. Se muestra que dichos clasificadores tienen muy buen desempeño, con niveles de acierto superiores al 80% a un con pequeños conjuntos de entrenamiento, si sus parámetros son ajustados apropiadamente en conjunto con una adecuada selección de los atributos.

 

Ubicación Óptica de Medidores Digitales en un Sistema de Distribución de Potencia. Un Enfoque basado en MOEA

 

AUTORES:- Benítez Ruiz Díaz, esteban Gabriel

                 - Planas Acosta, Gustavo Fabián

 

RESUMEN: La medición del consumo de la energía eléctrica, tensión y corriente de transformadores de un Sistema de Distribución de Potencia Eléctrica (SDPE) a través de medidores digitales, es una de las actividades claves para lograr una administración eficiente del sistema. En el Paraguay, resulta difícil aún destinar una inversión importante en tecnologías que ayuden en esta tarea por el alto costo que implica. Conociendo esta realidad y buscando plantear alternativas factibles, este trabajo propone tratar el problema de ubicación óptima de medidores digitales mediante un Algoritmo Evolutivo Multiobjetivo, el cual busca minimizar simultáneamente el número de medidores digitales y la tasa de error esperada. Básicamente, algunos transformadores estarán dotados de medidores digitales mientras que en el resto de los transformadores las medidas deberán ser estimadas. La tasa de error esperada se basa en un modelo matemático que estima las mediciones de transformadores no monitoreados utilizando las mediciones de los transformadores monitoreados. Los resultados experimentales indican que el número de medidores digitales instalados estratégicamente se encuentra en relación de compromiso con el error esperado.

 

Calidad de la Protección en redes WDM. Un paradigma cuantitativo basado en Probabilidad de Recuperación

 

AUTOR: - Rodas Britez, Marcelo Darío

 

RESUMEN: Actualmente los crecientes servicios web generan una mayor necesidad de amplios anchos de banda de transmisión. Por ello, comercialmente se utilizan redes WDM que permiten explotar la capacidad de las  fibras  ópticas.

Las redes WDM son propensas a catastro cas fallas por el gran volumen de información que pueden transportar en las  fibras  ópticas, requiriendo nuevos aspectos como: la recuperación ante fallas (supervivencia de redes) y la calidad de los servicios (QoS). Al juntar la recuperación ante fallas y la QoS surge el concepto de calidad de la protección (QoP).

En el diseño de redes WDM con servicios sujetos a requerimientos de QoP, se encuentra la necesidad de ajustar de manera flexible los niveles de QoP a la variedad de demandas de conexión existentes, debido principalmente a una falta de distribución equitativa y optimizada de los mismos.

Este trabajo propone un paradigma de cuantificación para grados de servicio de protección basado en probabilidad de recuperación ante fallas de enlace simple. Con este nuevo esquema de cuantificación QoP es posible generar de forma  flexible múltiples niveles de servicio acorde al modelo de servicio planificado. Para el diseño  óptimo de caminos primarios y de respaldo se propone un Algoritmo Genético que calcula tanto los caminos primarios como los de respaldo, sujetas a la QoP de cada solicitud unicast.

Los resultados experimentales indican que el enfoque propuesto es una alternativa promisoria al obtener soluciones menos costosas y servicios m as equitativos en comparación a los enfoques clásicos de protección basados en QoP no flexible.

 

Reconocimientos de posturas en Secuencias de Video usando firma Punto-Contorno

 

AUTORES: - Gaona Benítez, Gabriela Lorely

                   - Pérez Fernández, Francisco Javier

 

ABSTRACT: A research area in Computer Vision focuses on the identification of articulated objects, such as human actions and movements of the hand, which can be used in human-computer interaction, surveillance, and other tracking systems. Two problems arise: identify when two articulated objects in different stances are in the same class of objects, and differentiate the distinct positions of the same object. In both cases, it is necessary to know how correspond the different points or regions of such objects standing in different attitudes. This article presents the Contour-Point Signature; a point descriptor that allows to establish a method to achieve the better matching of points between two figures, and to thus obtain a transformation which relates them. With this descriptor, we can achieve more accurate shape features and implement more efficient retrieval under multi-resolution.

In addition, CPS is robust to rigid translation, scaling, rotation and independent of the origin point. A measure of dissimilarity between two figures for classifying various human postures in a video sequence is also presented.

 

Diseño de Interfaces de Usuarios basado en Reconocimiento del Habla

 

AUTORES:- Parra Zacarías, Rodrigo Manuel

                 - Ramírez Medina, Jorge Daniel

 

RESUMEN: Este trabajo describe el reconocimiento del habla como área de investigación. Se introduce el tema a través de los antecedentes históricos y el panorama actual del área, haciendo mención a diferentes aplicaciones del reconocimiento del habla.

Luego, se explica el proceso del reconocimiento del habla con enfoque estadístico, basado en la teoría de los modelos ocultos de Markov.

Posteriormente, se describe el proceso de diseño e implementación de una interfaz mediante voz para la composición musical, denominada TamTam Listens. Esta aplicación fue desarrollada utilizando herramientas de código abierto, como el motor de reconocimiento del habla PocketSphinx y el modelo acústico proveído por Voxforge y la plataforma educativa Sugar.

Finalmente, se exponen los resultados de la prueba de usabilidad realizada con TamTam Listens, las cuales permiten extraer conclusiones sobre la aplicabilidad del reconocimiento del habla a las interfaces de usuario y ofrecer recomendaciones para su diseño.

 

Modelo Ágil de Procesos para mantenimiento de Software

 

AUTOR: - Noguera Avalos, Nilsa Concepción

             - Arrúa  Rodas, Shirley Leticia

 

RESUMEN: A medida que aumenta el uso de la Tecnología de la Información, aumenta también el número de sistemas de computación que son críticos, en los cuales un error puede traer consecuencias graves. Diversos modelos, estándares y normas han sido creados con el objetivo de asistir a las organizaciones en la definición y mejora de sus procesos. Los procesos de software relacionados con el mantenimiento bajo los contextos de las metodologías ágiles han producido gran interés, los cuales cumplen con actividades comúnmente usadas para satisfacer rápidamente necesidades del cliente en la etapa de mantenimiento de software. Sin embargo, aún no incorporan tareas o actividades para con el control cuantitativo del proyecto, así como su evaluación, medición, estimación con el objetivo de alcanzar un modelo de calidad. La premisa fundamental subyacente es que la calidad de un producto es determinada en gran medida por la calidad del proceso utilizado para desarrollarlo y mantenerlo. A partir de esta premisa nace MAPSOFT, un modelo de proceso de mantenimiento de software que describe el mantenimiento de software incorporando el control de calidad del sistema luego de realizar cada solicitud de mantenimiento. De manera a incluir una visión práctica del uso del modelo y facilitar la aplicabilidad del modelo se presenta una herramienta que ayuda en la gestión de las peticiones de mantenimiento, pudiendo de esta manera seguir a cada solicitud para verificar el estado en el que se encuentra, además, el trabajo presenta dos casos de estudios que ha implementado el modelo propuesto logrando obtener resultados satisfactorios en cuanto a la calidad del producto final, y la satisfacción tanto del cliente como del equipo de mantenimiento con el producto recibido. Como líneas de trabajos futuros se visualiza la posibilidad de adaptar el modelo utilizando otras métricas calidad como las internas y externas ya que en el trabajo solo fueron utilizadas las métricas de calidad en uso; otro punto importante como línea futura es la posibilidad de dividir en subcategorías los tipos de mantenimiento para separar los urgentes del resto de las peticiones y poder darles un trato preferencial adaptando el modelo para este tipo de peticiones.

 

Protección con p-Cycles en Redes Ópticas WDM ante Trafico Dinámico. Un enfoque Multi-Objetivo

 

AUTORES: - Melian Oviedo, María Mercedes

                  - Mendoza Sienra, Francisco Rodrigo

 

RESUMEN: En los años recientes, el incremento de la popularidad de Internet ha llevado a un rápido aumento en la demanda de ancho de banda. La fibra óptica es la única tecnología capaz de satisfacer esta demanda debido a sus propiedades resaltantes, como: enorme ancho de banda, baja atenuación, inmunidad a interferencias electromagnéticas, menor peso, etc.

Las redes ópticas WDM son consideradas promisorias para redes de transporte, ya que ellas han resuelto en gran parte el problema de explotar eficientemente la enorme capacidad de transmisión de datos ofrecida por la fibra óptica. Divide el ancho de banda de una fibra en diferentes canales con longitudes de onda no solapadas, cada una de ellas conectada a dispositivos electrónicos, los cuales pueden transmitir y recibir información a la máxima velocidad de transferencia de datos opto-electrónica, sin presentar los problemas de cuello de botella electrónico (electronic bottlenecks). [1]

Muchos dispositivos WDM están disponibles en el mercado actualmente, y están emergiendo aún más. La investigación y el desarrollo de redes ópticas WDM han madurado considerablemente en la década pasada. Están siendo implementados incrementalmente por operadores de redes de telecomunicaciones en todo el mundo. La siguiente generación de Internet está implementando backbones basados en tecnologías WDM, conduciendo diferentes protocolos incluyendo IP, SONET/SDH, ATM, etc. [2].

 

Enrutamiento Cooperativo Vs. Egoista en Redes WDM. Una Comparación en el Contexto Multiobjetivo

 

AUTOR: - Báez Romero, Baudelio Ramón

 

RESUMEN: La creciente necesidad de proveer gran ancho de banda hace crítica la resolución de problemas de Diseño y Administración de Redes Ópticas para la obtención del máximo desempeño. Uno de los subproblemas centrales en este tipo de redes es la Ubicación Óptima de Conversores de Longitud de Onda, en la que el esquema de enrutamiento  centralizado o distribuido  juega un rol crítico en el desempeño de la red. Este trabajo propone estudiar el bene cio de un enrutamiento centralizado frente a uno distribuido en el problema de ubicación óptima de conversores en un contexto multiobjetivo. Para el esquema distribuido, el enrutamiento adoptado se basa en el modelo egoísta de la Teoría de Juegos en la que cada conexión trata de mejorar su propia probabilidad de bloqueo. En contrapartida, en la administración centralizada, el enrutamiento es calculado por un ente maestro el cual trata de mejorar la probabilidad de bloqueo global.

Para el estudio en cuestión se propone utilizar como herramienta Algoritmos Evolutivos Multiobjetivos, que buscan optimizar el  flujo de las K-cargas de tráfico de cada conexión como también la ubicación de conversores. En el contexto centralizado se propone un algoritmo puramente evolutivo el cual trata de calcular simultáneamente la ubicación de conversores y los  flujos de cargas. Para el contexto distribuido, un algoritmo evolutivo trata de calcular la mejor ubicación de conversores mientras que la asignación de  flujos que maximiza el benefício de cada conexión (modelo egoísta) es realizada por una simulación. Ambos enfoques son comparados mediante una métrica denominada el Precio de la Anarquía Pareto, la cual es propuesta en este trabajo como una generalización del concepto clásico del Precio de la Anarquía para el contexto monoobjetivo.

Los resultados experimentales indican que al aumentar el número de rutas alternativas K o al decrementarse la carga de tráfico, el Precio de la Anarquía Pareto tiende a incrementarse, lo que implica que el desempeño del enrutamiento distribuido se aleja del desempeño óptimo.

En el primer caso, se observa en las simulaciones que existe un mayor costo computacional de encontrar un punto de equilibrio en el sistema y se tiende a estancar en óptimos locales. Esto debido a la relación tiempo de cómputo versus tamaño del conjunto de soluciones factibles al aumentar K. En el segundo caso, las opciones de encontrar un camino menos saturado son escasas, tanto para el contexto egoísta como cooperativo, por lo que las tendencias indican que el Precio de la Anarquía Pareto alcanzará valores ideales en escenarios sobrecargados. Finalmente se ha observado que el desempeño en el punto de equilibrio del contexto egoísta mejora en la medida que se agrega estratégicamente más conversores de longitud de onda.

 

Reducción de la dimensionalidad en problemas many-objective combinando PCA y clustering espectral.

 

AUTOR: - Monzón Maldonado, Higo Daniel

 

RESUMEN: En general, los problemas de optimización multi-objetivo con dos o tres objetivos pueden ser resueltos eficientemente utilizando algoritmos evolutivos multi-objetivo. Sin embargo, ante los problemas de optimización con muchos objetivos (many-objective optimization problems), una extensión de los problemas de optimización multi-objetivo que involucra una cantidad mayor de objetivos (cuatro o más), los algoritmos actuales presentan las siguientes dificultades: deterioro de la habilidad de búsqueda, dificultad de visualización, e incremento en el número de soluciones necesarias para aproximar el frente Pareto.

Existen diversos enfoques para contrarrestar estas dificultades, entre ellos, la reducción de la dimensionalidad lidia con las dificultades mencionadas reduciendo el número de objetivos, apoýandose en el hecho que en muchas ocasiones no todos los objetivos son esenciales para describir el frente Pareto.

Deb y Saxena propusieron un método para reducir la dimensionalidad que combina el análisis de componentes principales (Principal Component Analysis - PCA) con el Non dominated Sorting Genetic Algorithm II (NSGA-II), denominado PCA-NSGA-II para obtener un conjunto reducido de objetivos. Tomando al PCA-NSGA-II como referencia, en este trabajo se presenta un método que combina PCA y un procedimiento de clustering con el propósito de evolucionar subconjuntos de una población en forma simultánea considerando diferentes conjuntos de objetivos obtenidos mediante PCA.

Para probar la viabilidad del método propuesto, corridas tales con los problemas DTLZ2(M) y DTLZ5(I, M) fueron realizadas y los resultados comparados con el método PCA-NSGA-II.

 

Multicast Óptico con Protección contra Falla de Nodo. Un Enfoque basado en MOACO

 

AUTOR: - Bellino Fernández, Carlos Daniel

 

RESUMEN: Este trabajo estudia el problema de diseño de supervivencia de red óptica sujeta a falla simple de nodo donde la disrupción por reconfiguración de la red degrada la Calidad de Servicio al haber pérdidas innecesarias de datos. En dicho contexto es necesario el desarrollo de técnicas que consideren el problema de la disrupción durante la reconfiguración del árbol primario al del resguardo. Por lo tanto, proponemos un algoritmo de optimización basado en colonias de hormigas multi-objetivo MOACO, que trata de encontrar el mejor diseño de la red, así como los árboles multicast primarios y de respaldo, considerando un conjunto petición multicast.

El algoritmo propuesto minimiza simultáneamente el costo de diseño de la red, el retardo óptico máximo de fin a fin, el número total de las reconfiguraciones y el número máximo de reconfiguraciones para un esquema orientado a reconfiguración de ramas desde el nodo fuente al destino. Los resultados experimentales sobre diferentes casos de estudio muestran los beneficios del enfoque propuesto frente a dos enfoques de protección del estado del arte basados en reconfiguración total y parcial.

 

Enrutamiento de Microfluidos en Biochips Digitales. Un Enfoque Multiobjetivo Basado en Colonia de Hormigas

 

AUTORES: - Mendoza Aranda Rolón, Carlos Alberto

                  - Szaran Almirón, Eduardo Enrique

 

RESUMEN: Los biochips digitales de microfluidos (DMFB) se usan para realizar ensayos biológicos, tales como análisis de ADN, reconocimiento de sustancias, descubrimiento de drogas, detección in-situ y en tiempo real de toxinas y agentes patógenos. Son muy prometedores por la portabilidad y la flexibilidad que ofrece su configurabilidad para realizar una gran variedad de ensayos en forma concurrente. Uno de los retos más importantes en el diseño de los DMFB es el problema del enrutamiento de los microfluidos, en el cual se debe planificar en el tiempo el movimiento de cada gota de manera simultánea.

Este trabajo trata el enrutamiento de microfluidos como un problema de optimización Multiobjetivo no Pareto. Se propone una heurística basada en optimización por colonia de hormigas, que minimiza en orden lexicográfico la interferencia entre gotas, el tiempo total de viaje y el número de celdas utilizadas. El análisis experimental del método indica que

la propuesta es promisoria al obtener mejores resultados que un trabajo del estado del arte [PDRS11] basado en colonia de hormigas.

 

Modelo Predictivo de Focos de Dengue Aplicado a Sistemas de Información Geográfica

 

AUTOR: - Báez González, Maximiliano

 

ABSTRACT:

 

Mejoramiento del Contraste de imágenes Digitales. Un enfoque basado en Ecuaciones Bi-Histograma con Dos Límites de Plateau

 

AUTORES: - Aquino Morínigo, Pabla Belén

                  - Lugo Solís, Freddy René

 

RESUMEN: La ecualización de histograma (HE) es un método efectivo para la mejora del contraste en las imágenes, pero sufre de ciertos problemas como la tendencia a cambiar el brillo medio, la pérdida de información y la introducción de niveles de saturación ocasionando una apariencia poco natural en la imagen resultante. Debido a los problemas expuestos, una variedad de métodos de ecualización de histogramas han sido desarrollados con el objetivo de preservar el brillo medio de la imagen y así evitar los niveles de saturación que ocasionan la pérdida de información. Sin embargo, existe un gran margen que aún debe ser mejorado. En este contexto, este trabajo propone el Bi-Histogram Equalization using Two Plateau Limits (BHE2PL) el cual divide el histograma global en dos sub-histogramas, luego cada sub-histograma es modificado por dos límites con el fin de evitar la sobre-mejora de la imagen. De manera a evaluar el método propuesto se consideran cinco métricas de evaluación que son: el tiempo de ejecución que mide el tiempo total que tarda el algoritmo en generar la imagen ecualizada, el Absolute Mean Brightness Error (AMBE) usado para medir la diferencia total de brillo entre la imagen de entrada y la imagen resultante, el Peak Signal to Noise Ratio (PSNR) usado para determinar la cantidad de ruido introducido en la imagen luego de su transformación, la Entropía que determina la aleatoriedad de la información en la imagen y por  ́ultimo el Contraste usado para medir el nivel de contraste de la imagen.

Los resultados experimentales indican que el método BHE2PL presenta una mejor preservación del brillo medio comparado con métodos significativos del estado del arte, además de presentar buen tiempo de ejecución y una mejor resistencia a la introducción de ruido.

 

Detección Automática de Retinopatía Diabética Basada en Técnicas de Visión por Computadora

 

AUTORES: - Chamorro Torres, Humberto

               - Encina Melgarejo, José Santiago

 

RESUMEN: La retinopatía diabética es una condición que ocurre en personas un daño progresivo a la retina y ceguera en etapas avanzadas. Su detección temprana, con un tratamiento apropiado y monitoreo de los ojos, puede reducir los riesgos. Por medio de técnicas de visión por computadora se puede ayudar en el diagnóstico de la retinopatía diabética y a la vez disminuir el tiempo de atención por paciente.

El método de screening propuesto está estructurado en tres módulos: detección y segmentación, extracción de características y por último la clasificación de Imágenes.

El módulo de detección y segmentación de imágenes permite aislar zonas de interés del ojo como ciertas patologías o anormalidades tales como los exudados duros y microaneurismas, igualmente estructuras anatómicas como los vasos sanguíneos y el disco óptico, utilizando técnicas de segmentación por umbralización.

La extracción de características se realiza a partir de las imágenes segmentadas, las características extraídas fueron área de los vasos, exudados duros y microaneurismas.

Para el módulo de clasificación se usa el clasificador binario Support Vector Machine el cual es entrenado de manera supervisada con 50 imágenes de retina, 25 sanas y 25 enfermas, en base a las características extraídas, de manera a catalogar las imágenes de retina en sanas o con retinopatía diabética.

Para las pruebas experimentales se utilizan 200 imágenes de una base de imágenes pública, establecida para facilitar los estudios sobre diagnósticos asistidos por computadora de la retinopatía diabética.

Los resultados de la metodología propuesta son 98,67 % de especificidad, 94,67 % de sensibilidad y 96,67 % de exactitud en la detección de la enfermedad, estos valores lo constituyen en una herramienta válida en la asistencia al profesional de salud acorde al estandar mínimo para un sistema de screening de retinopatía diabética.

 

Ejercitar: Un Modelo de Aprendizaje Asistido por Computadoras

 

AUTORES: - Godoy Gómez, Cecilia Arami

                  - Reyes Duarte, Claudio Samuel

 

RESUMEN: En un ambiente tradicional de aprendizaje, los docentes se encuentran con un conjunto heterogéneo de estudiantes que cuentan con múltiples capacidades, diferentes formas de comprensión y diferentes ritmos de  aprendizaje. En un grupo medianamente grande, se dificulta a los docentes el poder determinar el nivel de conocimiento de cada uno de sus estudiantes dentro de la asignatura que imparte. Siguiendo la metodología  tradicional en la educación, el docente prepara un solo examen para todo su curso. Para que el examen pueda  determinar de una forma más precisa la aptitud del cada estudiante, es necesario que incluya ejercicios de  diferentes niveles de dificultad, de modo a que pueda evaluar tanto a estudiantes con bajo nivel de conocimiento como a los que poseen un nivel más alto. Esto muchas veces se hace impráctico, ya que la cantidad de ejercicios debe aumentar, haciendo el trabajo de los docentes más tedioso, y el tiempo necesario  para la resolución del examen más largo.

En el presente trabajo se propone un modelo de enseñanza asistido por computadoras, orientado al docente, en el ámbito del proyecto One Laptop per Child (OLPC). El mismo se basa en el uso de redes bayesianas como parte de un motor de inferencia, que diagnostica el nivel de conocimiento del alumno y selecciona los  ejercicios adecuados para su nivel, formando de esta manera un test adaptado al nivel del alumno. Además consta de un sistema de gestión de contenidos orientado al trabajo del profesor en la administración del curso, obteniendo así un Sistema de Tutoría Inteligente.

 

Sistema de Gestión del Conocimiento mediante el Uso de Repositorios Basado en Niveles de Reutilización

 

AUTORES: - López Maidana, María José

                  - López Peralta, Germán Manuel

 

RESUMEN: En los últimos años las pequeñas y medianas empresas de desarrollo de software han ido adquiriendo una mayor importancia en la economía del Paraguay, el sector de desarrollo de software se encuentra en pleno crecimiento y ha evolucionado de ser casi exclusivamente venta de productos y componentes hardware a empezar a apuntar a un mercado serio con una mayor demanda de soluciones tecnológicas e inteligentes. Estudios realizados por Organismos Estatales revelan la situación actual de las PYMEs de desarrollo de software con sus fortalezas y debilidades, entre los puntos más importantes podemos mencionar que se detectó un crecimiento considerable en la cantidad de recursos humanos empleados en este rubro, así como también un mayor enfoque en aumentar la competitividad tanto a nivel nacional como a internacional.

En este trabajo primeramente se cimientan las bases de la Gestión del conocimiento y la reutilización de software a modo de presentar una propuesta de solución de uno de los problemas principales en el desarrollo de software del Paraguay, la falta de formalización de la Reutilización, introduciendo una escala que permita por un lado catalogar el nivel de madurez de Reutilización en los procesos de la empresa y por otro implantar técnicas y metodologías formales de reutilización en la Empresa, ofreciendo un Sistema que almacenará el conocimiento y el Know-How de los ingenieros expertos en una estructura que facilite la documentación, colaboración y reutilización de la información.

 

Aplicación de optimización de enjambre de Partículas de los Parámetros de CLAHE, en base a la Entropía y al Indice de Similitud Estructural

 

AUTORES:- Moré Rodríguez, Luis Guillermo

                 - Brizuela Núñez, Marco Andrés

 

RESUMEN: La mejora de contraste es un campo del área de procesamiento de imágenes digitales que afronta el problema de la falta del contraste en una imagen. Es uno de los procesos más importantes del área debido a que algunas imágenes necesitan de una mejora de contraste con el fin de poder  visualizarlas correctamente y analizar la información contenida en ella. También es importante como un  preprocesamiento para aplicaciones más complejas como segmentación de imágenes o detección de características.

En muchas imágenes en escala de grises, como por ejemplo mamografías, radiografías, huellas dactilares, entre otras, la información contenida en ellas puede ser de vital importancia y que a causa de la falta de contraste no se puede analizar correctamente la información contenida en ellas. En este contexto, los algoritmos de mejora de contraste son fundamentales.

Contrast Limited Adaptive Histogram Equalization (CLAHE) es un algoritmo de mejora de contraste local basado en la división de una imagen en bloques. CLAHE posee dos parámetros de entrada, los cuales son: el tamaño de bloque, que es el tamaño que tendrán cada uno de los bloques en el que se divide la imagen; y el límite de contraste, que es un factor que limita la cantidad de pixeles que pueden llegar a tener los distintos niveles de gris disponibles.

Escoger los valores adecuados de estos dos parámetros de forma a conseguir mejorar el contraste de la imagen sin distorsionarla es un problema. Esto se debe a que existe un gran número de combinaciones posibles que pueden tomar dichos parámetros, lo que genera un enorme conjunto de soluciones posibles.

Para decidir cuáles son los valores adecuados se debe cumplir con el objetivo principal trazado en este trabajo de investigación que consiste en mejorar el contraste de una imagen maximizando la información contenida en ella y minimizando la distorsión producida por CLAHE. Dado que la maximización y la minimización  de objetivos implican buscar los mejores valores, el problema de la búsqueda de los parámetros adecuados es un problema de optimización. Para encontrar los valores óptimos, en este trabajo de investigación se propone la utilización del algoritmo metaheurístico Particle Swarm Optimization (PSO), que es un algoritmo de optimización capaz de explorar un amplio espacio de búsqueda y encontrar la solución óptima del problema o la más cercana a la óptima. PSO es una gran opción para el trabajo de optimización debido a que es de fácil implementación y bajo costo computacional.

Para poder determinar la mejor solución al problema, es decir, los valores óptimos de los parámetros del CLAHE, se propone el cálculo de una función de evaluación, el cual utiliza dos métricas del estado del arte que son: La Entropía de la información y el Índice de Similitud Estructural (SSIM por sus siglas en ingles Structural Similarity Index). El objetivo principal de esta  evaluación es medir que la imagen resultante del proceso del CLAHE con los parámetros selectos posea la máxima cantidad de información posible y la menor degradación o distorsión posible en su estructura original.

Se valido la propuesta, comparando la misma con la implementación hecha por Byong [MLKL13], la cual es la más próxima al método encontrada en la literatura del estado del arte. El método de Byong es un método determinista consistente en encontrar los parámetros adecuados para CLAHE considerando dos curvas ajustadas, formadas por la Entropía como función del límite de contraste, y la Entropıa con respecto al tamaño de ventana. Se lograron resultados cuya Entropía resulta cercana a los resultados logrados por Byong, aunque los valores de SSIM obtenidos por la propuesta de este trabajo PSO-CLAHE fueron notablemente superiores, por lo que la función de evaluación de los objetivos resulto mayor para todos los casos de prueba presentados.

 

Generación de Soluciones de Morfología Matemática Utilizando Algoritmos Evolutivo Multiobjetivo

 

AUTORES:- Kanazawa Villalba, Julio Cesar Mazayuki

                - Lezcano Rodríguez, Claudio Marcelo

 

RESUMEN: El diseño óptimo de secuencias de operadores de morfología binaria (BMM), que convierte una imagen binaria a otra, es una tarea no trivial debido a la gran cantidad de soluciones factibles y a la sensibilidad en la secuencia. En este trabajo se propone una solución basada en algoritmo evolutivo iceobjetivo (MOEA). Básicamente, dadas una lista de operaciones BMM b ́asicas (t), una imagen de entrada (Iin) y otra de salida deseada (I), el MOEA propuesto busca calcular la mejor secuencia de operadores de BMM que optimiza simultáneamente el tiempo de ejecución de la secuencia de operaciones y la divergencia entre la imagen de entrenamiento 0 y la imagen generada por la secuencia misma Iout. En este contexto, el MOEA calcula un conjunto de soluciones no dominadas (conjunto Pareto) sobre las cuales el ice ̃nador podra realizar una mejor toma de decisión.

Los resultados experimentales sobre algunos ejemplos de aplicaciones indican dos aspectos claves: (a) la divergencia y el tiempo de ejecución de las secuencias de operaciones son funciones objetivos contradictorias, y (b) la calidad del conjunto Pareto está en función de la complejidad del problema

y la cantidad de operadores BMM disponibles en la lista t.

 

2013

 

Generación Automática de Casos de Prueba Unitaria Orientados a Objetos a Partir de Especificaciones de Programa

 

AUTORES: - Espínola Brítez, Laura María

                  - Fernández Martínez, Sebastián

 

RESUMEN: El presente trabajo busca facilitar la tarea de pruebas unitarias a los especialistas en calidad de software, ayudando a obtener casos de prueba a partir de especificaciones funcionales.

Esta propuesta utiliza como información de entrada un diagrama de clases UML almacenado en el formato XMI y una plantilla de caso de uso, de la cual se obtiene el diagrama de actividades que de nirá las secuencias de pruebas. Para generar los casos de prueba, se utilizan las siguientes técnicas: partición de equivalencia, análisis de valores límites y grafos de causa-efecto. Considerando estos factores, se ha logrado implementar un prototipo funcional y en relación al mismo se presentan algunos ejemplos de especi caciones y casos de prueba obtenidos.

La aplicación generadora de casos de prueba GenCP fue creada para observar el desempeño de las técnicas citadas anteriormente; veri cando que son capaces de responder de manera e ciente, consiguiendo una cantidad considerable de casos de prueba de calidad.

 

Diseño de Redes Robustas Bajo Incertidumbre de Tráfico Dinámico. Un  Enfoque Basado en Algoritmos Genéticos

 

AUTOR: - Díaz  Báez, Brenda

 

RESUMEN: Una red es robusta cuando es capaz de lidiar efectivamente con cualquier requerimiento de tráfico incierto o con cambios en la arquitectura y topología de la red, considerando ciertos límites y determinadas condiciones físicas de la misma. El diseño de redes robustas es un problema complejo y de creciente importancia donde, por lo general, la incertidumbre del trá co es un factor preponderante. Por tal motivo, este trabajo se centra en el problema de diseño de redes robustas sujeto a tráfico incierto.

Básicamente, se propone un Algoritmo Genético para un diseño de red en la que se busca calcular la asignación óptima de capacidades en enlaces de red considerando tráfico dinámico y enrutamiento estable con K sub-rutas. El  ujo de tráfico entre un par de nodos se divide en K sub-flujos donde cada uno es cursado sobre una de las K sub-rutas. La incertidumbre de trá co se basa en el modelo hose, el cual impone a cada nodo un tráfico de salida/entrada máximo. En este modelo no es necesario ningún conocimiento sobre el tráfico entre los pares de nodos.

Los resultados experimentales para instancias con distintos números de sub-rutas K muestran la conveniencia del enrutamiento estable frente a un enrutamiento no divisible (K = 1). Sin embargo, se ha detectado que al aumentar el valor de K crece inminentemente el número de soluciones factibles por lo que existe una relación de compromiso entre el número K y la calidad de las soluciones que pueden ser obtenidas por el algoritmo propuesto para un determinado tiempo de cómputo.

 

Sistema de Detección de Señales de Tránsito de la República del Paraguay Utilizando Técnicas de Procesamiento Digital de Imágenes

 

AUTOR: - Pisciotta Sanabria, Fabrizio José

             - Invernizzi Valdovinos, Alida Stella

 

RESUMEN: Se presenta un sistema de detección de señales de tránsito utilizando técnicas de procesamiento digital de imágenes. El abordaje propuesto se divide en dos fases: segmentación de las regiones de interés y la detección de las señales presentes en las mismas. La segmentación consiste en aplicar una máscara a la imagen, de manera a obtener un conjunto de los colores de referencia. Para separar las regiones de interés del fondo de la imagen se calcula la distancia de Mahalanobis entre los píxeles de la imagen y la media del conjunto de muestra. Una vez segmentadas las imágenes, se detectan las señales comparando tres técnicas: la FFT de la firma normalizada, ajuste a la curva de Gielis y la transformada de Hough. Este trabajo se centra en las señales de tránsito de la República del Paraguay, específicamente en las señales de reglamentación y prevención. Cabe resaltar que para validar la propuesta, se seleccionaron imágenes del benchmark de detección de señales de tránsito de la República Federal de Alemania del Institut fur Neuroinformatik, que reunen las mismas características de las señales de la República del Paraguay, dando muy buenos resultados para ambos casos.

 

Multicast Óptico con Protección contra Falla de Nodo. Un Enfoque basado en MOACO

 

AUTOR: - Vázquez Rojas, Aditardo

 

RESUMEN: En este trabajo se trata el problema del diseño de una red óptica para trá co multicast estático sujeto a recuperación contra fallas simples de nodo. Dado una topología de red y un conjunto de solicitudes de trá co multicast proponemos un algoritmo de optimización basado en colonias de hormigas multi-objetivo MOACO que trata de calcular la mejor solución que consiste en el diseño de red óptica como también los árboles multicast óptico primarios y de resguardo para la protección a fallas de nodo. El algoritmo propuesto minimiza simultáneamente el costo de diseño y el máximo retardo sujeto a las restricciones físicas de la red. Los resultados experimentales sobre diferentes instancias de pruebas muestran las ventajas y desventajas de tres enfoques de protección basados en la re-configuración parcial y total de la red.

 

Computación en la Nube: “Una nube privada para la Administración Pública

 

AUTORES: - Cabanellas Esteche, Cristian Copp

                  - Arzamendia  Alarcón, José Alberto

 

RESUMEN: Computación en la nube es una tecnología de información y comunicación emergente con una creciente inclusión en la industria, la administración pública y el sector académico. Esta tecnología representa la convergencia y evolución de varios conceptos como: virtualización, diseño de aplicaciones distribuidas, computación grid, gestión empresarial de tecnologías de información y comunicación, que permiten un enfoque más flexible para implementar y escalar aplicaciones. En este trabajo se propone una metodología de estudio comparativo de soluciones que implementan la computación en la nube, con especial énfasis en el modelo de servicio IaaS (infraestructura como servicio), atendiendo características funcionales, de seguridad, y de calidad y madurez del software libre. Este estudio se centra en la comparación de cuatro soluciones mayormente adoptadas de software libre: CloudStack, Eucalyptus, OpenStack y OpenNebula. Se analizan algunas debilidades comunes que presentan estas soluciones, se realiza recomendaciones sobre oportunidades, riesgos, además se propone algunas líneas futuras de investigación y desarrollo. Se espera que este trabajo proporcione un punto de partida para la implementación de una nube privada en la administración pública del Paraguay.

 

Algoritmos Evolutivos Multiobjetivos sobre Unidades de Procesamiento Gráfico

 

AUTORES: - Escauriza Arza, Daniel Federico

                 - Torres Ibarrola, Anastacio Concepción

 

RESUMEN: El presente trabajo propone la implementación paralela del Algoritmo Evolutivo de Ordenación Rápida Por No Dominancia (Non-dominated Sorting Genetic Algorithm II - NSGA II) utilizando la arquitectura de cálculo paralelo CUDA en una Unidad de Procesamiento Gráfico (Graphics Processing Unit - GPU) para resolver el problema de Reconfiguración de Redes Opticas Virtuales (Virtual Topology Reconfiguration - VTR) y el problema de prueba DTLZ 2. Los resultados obtenidos muestran la viabilidad del enfoque propuesto al ser comparados con la versión secuencial del algoritmo y el método de programación lineal (Integer Linear Programing - ILP) utilizando distintas métricas experimentales de desempeño.

 

2012

 

Modelo de Procesos de Desarrollo de Software - Ñanduti

 

AUTORES: - Casco Silva, Guido Andrés

                  - Gómez,  Silvano Christian

 

RESUMEN: En el mundo cambiante y acelerado de hoy, se ha desarrollado una fuerte dependencia de las tecnologías de la información por parte de la sociedad. La demanda generada por usuarios, que reclaman servicios que den solución a sus necesidades y las exigencias de un entorno cambiante, han impulsado a un número significativo de compañías desarrolladoras de software a buscar soluciones enfocadas a mejorar organizacional y estratégicamente sus procesos para desarrollar productos ―software‖ de mejor calidad, con el objetivo de ser más competitivos en el mercado y satisfacer las demandas de los usuarios.

En Paraguay, muchas de las soluciones propuestas por compañías, que hacen parte de la industria del software, no cumplen con los requerimientos mínimos que satisfagan las necesidades puntuales de sus clientes, ni mucho menos que les permita competir a nivel de calidad del software en mercados internacionales, provocando problemas de diversa índole pudiendo acarrear no sólo grandes costos de inversión sino también de mantenimiento, administración, adecuación y reparación de las soluciones software implantadas. Es por este motivo, que surgen diversas propuestas, metodologías y guías avaladas por organismos reconocidos en el área de la calidad del software a nivel internacional, enfocadas en auditar y certificar la manera como las empresas desarrolladoras software producen soluciones de mayor calidad.

Posicionar el nombre de nuestro país en cuanto a la calidad en el software y lograr una buena imagen, que llene las expectativas de productos de buena calidad de los mercados internacionales, es una tarea ardua, pero es un resultado que podría lograrse si el conjunto de todas las empresas y organizaciones enfocadas en las tecnologías de la información, tanto del sector público y privado, se marcasen objetivos y generasen una cultura de mejoramiento de la calidad en el software. El avance, en el ámbito de la producción de software para otros mercados, se pronuncia en los últimos años, con cambios importantes en la generación de nuevos mercados a nivel internacional. La evidencia de ello, según uno de los informes emitidos por REDIEX1, es la facturación de casi 5 Millones de Dólares en el período que comprende los años que van desde el 2005 al 2008, en productos software que han sido exportados a otros países, y cuyo crecimiento con respecto a años anteriores se vio representado en un 16% al finalizar el año 2008.

Este documento contiene la propuesta de Tesis para la obtención del título de grado de Ingeniería en Informática en el que se propone, valga la redundancia, un modelo de mejora de procesos, que se adapte a las necesidades del mercado local de desarrollo de software, específicamente para el mercado de las PYMES; que es el que más sufre de la carencia de un estándar adecuado a sus posibilidades, aunque también está orientada para las Grandes empresas. En el modelo de mejora de procesos propuesto, se enfoca, como en la mayoría de los estándares internacionales, un Modelo de Referencia que, con palabras simples, busca especificar lo que se debe hacer, un Modelo de Evaluación que dicta las pautas, como se debe hacer lo que el modelo de referencia propone, y un Método de Evaluación, que guía en la tarea de evaluación de los procesos de una organización solicitante. Además, como ayuda para el Método de Evaluación se propone una Herramienta de Evaluación. El Modelo Propuesto está basado en los modelos de procesos de desarrollo de SW de la [ISO 15504] y la [ISO/IEC

 

Selección Optima de P-Cycles en Redes Ópticas WSM con grupos de enlaces de riesgo compartido y restauración independiente utilizando Algoritmos Genéticos

 

AUTORES: - Talía Moreno, Alejandro Mateo

                  - Villalba Páez, José Gabriel

 

RESUMEN: Con la proliferación de las redes ópticas en el mundo, también aumentan las expectativas de grandes velocidades de transmisión principalmente, pero también las relacionadas a la alta disponibilidad de las mismas. La disponibilidad puede ser una de las características más cruciales de una red. Antes de entrar de lleno al problema específico analizado en este trabajo vamos a presentar brevemente la tecnología en la que se basan las redes ópticas que tratamos, las fallas que las afectan y luego el método de ciclos pre-configurados o p-cycles. También exponemos los objetivos y alcance de este trabajo así como un breve análisis de los trabajos anteriores relacionados.

 

PWA - Prototyping of Web Applications. Una Herramienta de Soporte a la Ingeniería de Requerimientos

 

AUTORES: - Poletti Ojeda, Leopoldo Arsenio

                  - Rivas López, Daniel Eduardo

 

RESUMEN: Con la introducción de Internet y las aplicaciones web, se han abierto una infinidad de posibilidades en cuanto al acceso a la información desde casi cualquier parte del mundo. Esto representa un desafío importante a los desarrolladores de sistemas, debido a que los avances en tecnología demandan cada vez aplicaciones más rápidas y de mejor calidad.

Actualmente existen diferentes metodologías y técnicas utilizadas a la hora del desarrollo de software de manera a garantizar la calidad de los productos ofrecidos. En este trabajo se presentan distintos modelos y técnicas que corresponden el estado del arte en las metodologías de desarrollo de software y la ingeniería de requerimientos respectivamente.

Las características propias de la tecnología, involucrada en la web, hacen que sea distinto el proceso de desarrollo de una aplicación web al proceso de desarrollo de un software tradicional. Teniendo en cuenta la necesidad de garantizar los productos es necesario contar con una herramienta sencilla que permita alcanzar los requerimientos y la satisfacción final del cliente.

Teniendo en cuenta esta necesidad se propone la herramienta PWA – Prototyping of Web Applications. La propuesta se encuentra inspirada principalmente en la necesidad de dar un soporte a la ingeniería de requerimientos web y se basa en las metodologías web más utilizadas actualmente.

PWA es una herramienta que se basa en el proceso de prototipado iterativo e incremental para el desarrollo de aplicaciones web, permitiendo, de esta manera, obtener un prototipo de la aplicación final a ser entregada al cliente. La misma permite ir obteniendo y puliendo los requerimientos, por medio de las iteraciones, hasta lograr los objetivos deseados. Propone un modelado simple, basado en UML, para la generación de los prototipos y permite reducir considerablemente el tiempo de desarrollo de las aplicaciones.

De manera a incluir una visión práctica del uso de la herramienta, el trabajo presenta un caso de estudio que se ha implementado utilizando la herramienta propuesta.

 

Análisis Sistematizado de la Incorporación de la Usabilidad en el Desarrollo de Software

 

AUTORES: - Díaz Molas, Laurent Gianina

                  - Ferreira Aranda, Juan Marcelo

 

RESUMEN: La calidad es uno de los principales retos de la construcción de software. En la Ingeniería del Software (IS) se considera a la usabilidad como un atributo de calidad. Al principio se veía a la usabilidad como un requisito no funcional. Se asumía que la usabilidad era una propiedad exclusiva de la presentación de la información. Se creía que separando la capa de presentación del resto, se podía desarrollar un producto software usable. Debido a la naturaleza del sistema y a las necesidades del usuario, a menudo se debe ir más lejos y no basta con tener en cuenta la presentación para obtener un software usable.

La comunidad Human Computer Interaction (HCI) ha propuesto recomendaciones para mejorar la usabilidad. Desde la IS la usabilidad tradicionalmente está asociada a los requisitos no funcionales mientras que algunas de las recomendaciones HCI tienen impacto directo en la funcionalidad del producto software. En estudios recientes también se ha evaluado la relación entre la usabilidad y los requisitos funcionales. Estas investigaciones sugieren que la usabilidad debe ser tenida en cuenta desde las etapas iniciales de la construcción como requisitos funcionales para evitar costosos cambios posteriores. De ahí, la incorporación de las características de usabilidad agrega complejidad adicional al proceso de desarrollo.

El presente trabajo de tesis analiza la incorporación de la usabilidad en el desarrollo de un producto software. Concretamente se evalúan los siguientes mecanismos de usabilidad formalizados como patrones de programación: Abort Operation, Progress Feedback y Preferences. Se utilizan unas Pautas de Desarrollo de Mecanismos de Usabilidad (PDMUs) para estos tres mecanismos de usabilidad. Estas pautas proponen soluciones en la forma de patrones para la educción y posterior incorporación de la usabilidad en las distintas etapas de desarrollo del software incluido la programación.

En esta investigación se aborda el desarrollo de un producto software desde la perspectiva de dos desarrolladores con distintos niveles de usabilidad partiendo de la educción y especificación de requisitos, pasando por el análisis y diseño hasta la implementación. Cada desarrollador introduce la usabilidad de acuerdo a las recomendaciones de las PDMUs en las distintas etapas del proceso. Durante el proceso evaluamos la factibilidad del uso de los artefactos contenidos en las PDMUs obteniendo como resultado propuestas de mejoras en estas pautas. Se evalúa asimismo el impacto de incorporación de los mecanismos de usabilidad. Cada evaluación aporta datos que proporcionan una estimación del esfuerzo adicional requerido para incorporar cada mecanismo de usabilidad en el proceso de desarrollo del software.

 

Conversión de Circuitos Cuánticos a la Arquitectura LNN

 

AUTOR: - Frutos Olmedo, Luis

 

RESUMEN: El interés del público por la computación cuántica inició su creciente auge en 1994, cuando Peter Shor propuso un algoritmo de factorización rápido capaz de romper el reconocido sistema de criptografía de clave pública RSA (propuesto por Rivest, Shamir y Adleman) desarrollado en 1977 y que se encuentra ampliamente difundido hoy en día, especialmente en los certificados digitales utilizados en Internet. Desde entonces, se han desarrollado un buen número de algoritmos cuánticos muy relevantes como por ejemplo el algoritmo de Grover para la búsqueda en una base de datos desordenada, la Transformada Cuántica de Fourier y la Teletransportación de estados cuánticos, entre otros. En general, un algoritmo cuántico puede ser representado mediante un circuito cuántico que sintetiza sus pasos. El circuito cuántico está compuesto de compuertas cuánticas, que realizan transformaciones unitarias sobre qubits (un qubit o quantum-bit es una unidad cuántica de información, que generalmente representa una superposición de estados cuánticos). Un algoritmo cuántico asume que los qubits sobre los que actúa pueden tener interacciones incluso a distancia; sin embargo, con el actual estado de la tecnología, muchos circuitos cuánticos concretos tan solo permiten que sus compuertas cuánticas interactúen sobre un par de qubits vecinos. En consecuencia, para que un algoritmo cuántico pueda ser implementado físicamente en un circuito cuántico concreto, se requiere mover los qubits mediante operaciones de intercambios (conocidas como compuertas cuánticas SWAP) de forma que los qubits sobre los que actuará una compuerta sean vecinos. En consecuencia, se define la arquitectura cuántica LNN (Linear Nearest Neighbor) como aquella arquitectura de circuitos cuánticos en la que solo existen compuertas SWAP y compuertas que actúan sobre qubits vecinos. Dado que un algoritmo cuántico no tiene en general una arquitectura LNN, resulta relevante poder convertir un circuito cuántico genérico en un circuito equivalente, utilizando el menor número posible de compuertas SWAP. En consecuencia, este trabajo analiza el estado del arte en algoritmos clásicos que permiten realizar esta conversión de un circuito cuántico genérico a una arquitectura LNN.

 

Propuesta Multiobjetivas de la Metaheurística Harmony Search

 

AUTORES: -Huttemann Arza, Germán Ricardo María

                  - Ricart Debernardi, Juan Gabriel

 

RESUMEN: La mayoría de los problemas de optimización en ingeniería son multiobjetivos por naturaleza, ya que normalmente tienen varios objetivos que deben ser optimizados al mismo tiempo. Por lo general, estos objetivos están en conflicto o competencia, es decir, mejorar uno empeora otros. Por esta razón, no siempre es posible encontrar una única solución óptima para este tipo de problemas, como ocurre con los problemas de optimizaicón mono-objetivo. En cambio, en los problemas de optimización multiobjetivo (Multiobjective Optimization Problem, MOP) se intenta encontrar un conjunto de buenas soluciones de compromiso, de entre las cuales un tomador de decisiones elige una o varias soluciones aceptables para el problema abordado [Coello Coello 2001].

Cuando varios músicos de jazz tocan juntos, cada uno elige las notas musicales en sus instrumentos intentando alcanzar la mejor armonía conjuntamente con el resto del grupo. A medida que trascurre el tiempo, y recordando la música que han tocado anteriormente, los músicos mudan de nota en nota para ir haciendo mejor y mejor música. En efecto, los músicos están haciendo una optimización. Cada uno de ellos debe elegir las notas más adecuadas para sus instrumentos en el orden adecuado para hacer que la armonía del grupo sea la mejor posible. La metaheurística Harmony Search es una técnica de optimización inspirada originalmente en el fenómeno musical del jazz. A pesar de ser una metaheurística relativamente nueva, su efectividad y ventajas han sido demostradas en varias aplicaciones de ciencia e ingeniería [Ingram and Zhang 2009].

La aplicación de la metaheurística Harmony Search a problemas de optimización multiobjetivo de manera natural y eficiente ha quedado como tarea pendiente de las investigaciones existentes. Más aún, el uso de esta metaheurística para resolución de problemas multiobjetivos complejos como los NP-hard, es considerado como un próximo desafío [Yang 2009].

Este trabajo tiene como objetivo principal proponer algoritmos multiobjetivos generales para la metaheurística Harmony Search, que permitan obtener resultados competitivos respecto a algoritmos representativos del estado del arte en la resolución de MOPs, considerando métricas clásicas de evaluación de algoritmos de optimización multiobjetiva. Para el efecto, se implementaron dos propuestas multiobjetivas de la metaheurística Harmony Search, que fueron comparadas contra el algoritmo evolutivo NSGA-II, utilizando como bases de prueba problemas benchmark, tales como las funciones ZDT y las propuestas en el CEC 2009.

Los resultados obtenidos en las pruebas experimentales indican que los algoritmos propuestos son competitivos con el NSGA-II con respecto a valores alcanzados en las métricas de desempeño, pero inferiores con respecto a velocidad de convergencia.

 

2011

 

Comunicaciones ópticas enrutamiento multicast multiobjetivo bajo restricciones de capa óptica

 

AUTOR: - Arévalos Flor, Sara María

 

RESUMEN: Las redes ópticas transparentes con capacidad de transmisión punto-multipunto imponen al tráfico severas restricciones de capa óptica, como son: la de continuidad y la de conflicto en la utilización de longitudes de onda como también de potencia mínima de la señal óptica en nodos destinos. Este trabajo propone resolver el Problema del Enrutamiento y Asignación de Longitudes de Onda Multicast (Multicast Routing and Wavelength Assignment - MRWA) bajo restricciones de capa óptica mediante algoritmos de colonias de hormigas multi-objetivas (Multiobjective Ant Colony Optimization - MOACOs). Se propone optimizar simultáneamente el número total de saltos, la máxima cantidad de saltos fuente-destinos, el número de nodos splitter y el promedio de balanceo de los árboles multicast para un conjunto de demandas multicast conocido a priori. Las pruebas experimentales indican que los algoritmos MOACOs propuestos demuestran ser enfoques promisorios al obtener mejores resultados que el Multicast Open Shortes Path First – Least Used (MOSPF-LU) sobre distintos conjuntos de demandas multicast en diferentes topologías de redes.

 

Ubicación de llaves telecomandadas en sistema de distribución eléctrica. Una comparación de algoritmos evolutivos y enjambre de partículas en un ambiente multiobjetivo.

 

AUTOR: - Méndez Franco, Diego Juan José

 

RESUMEN: En este trabajo se utilizan algoritmos de Optimización basados en Enjambre de Partículas (Particle Swarm Optimization - PSO) y en Algoritmos Evolutivos (Evolutionary Algorithm - EA) seleccionados del estado del arte para resolver el problema de Ubicación Óptima de Llaves Telecomandadas en un Sistema de Distribución Eléctrica (SDEE) y bajo un ambiente multiobjetivo. Además, los resultados obtenidos por ambos enfoques son comparados estadísticamente con un test paramétrico, constituyéndose así en la primera comparación formal de las dos metaheurísticas para resolver el problema en cuestión. Todos los algoritmos estudiados utilizan los conceptos de dominancia Pareto como técnica de resolución de problemas de optimización multiobjetivo. Bajo el esquema de pruebas e instancia del problema utilizado en este trabajo, se observa un mejor desempeño de los PSOs frente a los EAs. Así mismo, factores computacionales acreditan otra ventaja a los métodos PSOs, debido a la rapidez de convergencia observada en los experimentos. En este trabajo se utiliza un método diferente para comparar el rendimiento experimental de los algoritmos basado en un contraste estadístico. Además, debido a la cantidad de enfoques PSO abordados, en este trabajo se implementa una plataforma para la creación y utilización de algoritmos PSOs multiobjetivos, la cual permite desarrollar nuevos algoritmos utilizando un framework único y utilizar algoritmos ya desarrollados por otros usuarios de la misma; la ventaja directa radica en que los esfuerzos se enfocan directamente en la resolución del problema de optimización más que en diseño de los algoritmos.

 

Mede: modelo de estimulación dinámica de esfuerzo. Aplicación de la dinámica de sistemas en la estimulación de esfuerzo en proyectos de ingeniería de software.

 

AUTOR: - Duarte Cáceres, Elena Margarita

             - Riveros Medina, Ángel Guillermo

 

RESUMEN: El desarrollo de software es un proceso dinámico y complejo, existen muchos factores que interactúan a lo largo del ciclo de vida sobre los costos, el calendario del proyecto y la calidad del producto de software desarrollado. Las empresas paraguayas poseen un alto potencial de desarrollar soluciones para el mercado local e internacional, ellas buscan herramientas para mejorar tanto la productividad y la eficiencia en la gestión.

La presente tesis es una aplicación de la Dinámica de Sistemas en la estimación de esfuerzo en proyectos de ingeniería de software, y como resultado se provee una nueva herramienta denominada Modelo de Estimación Dinámica de Esfuerzo – MEDE.

La dinámica de sistemas es una metodología empleada para entender como un sistema cambia en el tiempo. Esta metodología fue desarrollada por Jay Forrester en 1960, y es aplicada exitosamente en muchas áreas de la ciencia como la Biología, la Económica y el Comercio por citar algunas.

Las técnicas de estimación basadas en metodologías dinámicas denotan que el esfuerzo de producción de los proyectos de software y los factores de costos son cambiantes en el tiempo de desarrollo del propio sistema, es decir, se produce un proceso dinámico y no estático en el tiempo.

Para desarrollar el modelo citado se aplicó la metodología del modelado dinámico en todas sus fases, las cuales son: (a) Definición del problema,( b) Conceptualización del sistema, (c) Formalización, (d) Simulación del modelo, (e) Evaluación del modelo y (f) Explotación del modelo.

La evaluación de la problemática de la aplicación de las estimaciones se enfocó en el ámbito de las empresas paraguayas y la opinión de los líderes de los proyectos.

A fin de probar el modelo propuesto, éste se aplicó tanto en un caso de estudio documentado en [RAMOS2001], como además se probó con datos reales de dos proyectos de empresas paraguayas.

De la aplicación del MEDE a los casos de estudios se puede apreciar un comportamiento similar y una gran exactitud, en cuanto a la realidad de los proyectos estudiados. Esto nos dice que el MEDE es un modelo muy efectivo y útil a la hora de realizar estimaciones para la toma de decisiones en un proyecto a ejecutarse o durante la ejecución del mismo.

La comparación valió para demostrar que la sencillez del MEDE es una ventaja en su aplicación en las empresas paraguayas.

MEDE: Estimación Dinámica de Esfuerzo en proyectos de software.

 

2010

 

Una Nueva Propuesta de Templado Simulado Multi-objetivo

 

AUTOR: - Meyer, Hugo Daniel

 

RESUMEN: Este trabajo compara diversos algoritmos Multi-objetivo de Templado Simulado – MOSA, utilizando una base de prueba basada en las diversas funciones ZDT [Zitzler 1999] y funciones definidas para el CEC 2009 [Zhang 2009].

Además, se propone una nueva versión de MOSA que busca orientar el proceso de búsqueda hacia los objetivos que se encuentran más alejados de sus valores óptimos. Para esto, al momento de generar una solución que es no comparable con la solución actual, se la acepta con alta probabilidad si esto mejora al objetivo que se encuentra más lejano de su óptimo.

Además de esta nueva variante de MOSA, se presentan formas alternativas de realizar la perturbación de soluciones para la obtención de nuevos valores.

El MOSA propuesto presenta claras mejorías frente al algoritmo clásico de templado simulado y frente a otros algoritmos como aquellos que utilizan funciones compuestas con pesos, principalmente considerando la distancia al Frente Pareto Óptimo.

 

Sistemas de Recomendación Multicriterio Utilizando Ordenamiento de Criterios

 

AUTORES: - Acosta Galeano, Guido Daniel

                  - Amarilla Duarte, Walter Daniel

 

RESUMEN: En general cuando se desea tomar una decisión, entre varias alternativas factibles, las personas recurren a expertos o conocidos para obtener una orientación o recomendación que les ayude a realizar la que pueda considerarse como la mejor decisión posible. Con la generación de contenidos a un ritmo creciente, surge la necesidad de utilización de tecnologías de personalización que filtren el contenido disponible y entreguen aquellos que mejor se adecuen a los gustos y necesidades particulares. Los Sistemas de Recomendación se han desarrollado a fin de proveer soporte informático a la toma de decisiones ante la creciente necesidad de filtrado mediante la sugerencia de contenidos personalizados. En la búsqueda de nuevos métodos que mejoren el filtrado de la información disponible, la utilización de múltiples criterios para la especificación de los gustos de los usuarios es una alternativa ya que provee al sistema mayor información sobre los intereses de los usuarios. En vista a lo anterior, el presente trabajo aporta un nuevo modelo de Sistema de Recomendación Multicriterio que, además de considerar los puntajes que asignan los usuarios a los diferentes criterios, utiliza el ordenamiento de los criterios de manera a introducir información adicional que ayude a identificar con mayor precisión usuarios similares. Con el fin de analizar el comportamiento del Sistema de Recomendación desarrollado con relación a Sistemas de Recomendación de criterio global único y al sistema de recomendación que sólo considera varios criterios pero no el orden, se realizaron pruebas experimentales de un caso paradigma de recomendación de películas. A tal efecto, se publicó un sitio web donde las personas asignaron puntajes a sus películas preferidas, de esta manera se obtuvo la base de datos multicriterio utilizada en la evaluación. Las pruebas han demostrado que el Sistema de Recomendación Multicriterio desarrollado produce mejores resultados en cuanto a la exactitud de las recomendaciones que realiza.

 

XP++ Un Entorno Ágil de desarrollo Aplicado a Extreme Programming

 

AUTOR: - Delvalle Lugo, Paulino Alejandro

             - López Pires, Fabio José

 

RESUMEN: La creciente demanda de software da lugar a la aparición de numerosas empresas de desarrollo de software y a mayores exigencias para su proceso de desarrollo.

Se ha vuelto constante que los clientes deseen software funcionando en poco tiempo, probablemente con varios cambios en los requerimientos durante el proceso de desarrollo de software y que la calidad del mismo no se vea afectada por la entrega rápida.

El modelo tradicional de desarrollo de software no adapta sus procesos a estas necesidades, por lo que las metodologías ágiles son las más utilizadas actualmente. La más conocida, documentada y utilizada de estas metodologías es Extreme Programming. Las metodologías ágiles ofrecen sólo un marco teórico de prácticas, sin que existan herramientas o entornos de desarrollo que implementen completamente dichas prácticas y guíen el proceso de desarrollo y gestión de los proyectos de software, desarrollados en simultáneo.

Los equipos de desarrollo necesitan un entorno de fácil utilización y adopción que integre completamente una metodología ágil para guiar el proceso de desarrollo hacia el cumplimiento de las necesidades de los clientes y facilitar la gestión de los proyectos de software. Como respuesta a esto se presenta XP++, un entorno ágil de desarrollo de software aplicado a Extreme Programming.

A modo de presentar resultados prácticos del entorno, se describe un caso de estudio real desarrollado con XP++, en un contexto de desarrollo de proyectos de software en simultáneo y con diferentes tecnologías de desarrollo.

 

Prototipo de un Sistema de Tutoría Aplicado a un Ambiente Personalizado de Aprendizaje

 

AUTOR: - Mancia Zelaya, Fernando Manuel

 

RESUMEN: En todo entorno de clase, existe una gran diversidad de niveles en cuanto a desempeño, habilidad, capacidad y dedicación en el conjunto de estudiantes de una misma aula. Esto dificulta al docente para decidir e identificar el nivel de dificultad de los temas y las tareas que se darán al grupo, así como los tiempos empleados para cada objetivo académico. Los múltiples niveles de preparación encontrados en los docentes del sector primario, adiciona otra limitación que se incrementa al no contar con herramientas de apoyo. Muchos de los docentes tienen un mínimo o nulo acceso a herramientas tecnológicas que ayuden al proceso de aprendizaje, y no relacionan como éstas pueden ayudar en su labor. Esta conjunción dificulta el logro de un objetivo deseado: la personalización de la educación para incrementar su calidad. Para colaborar con la personalización de la educación, atendiendo las limitaciones de acceso y uso de tecnologías en escuelas públicas que atrasan la conectividad y comunicación entre estudiantes, docentes y padres; encontramos dentro de la literatura de los Sistemas Tutores Inteligentes que éstos deben adaptarse a las características de los estudiantes y proveer, por ejemplo, el estilo de aprendizaje que mejor se adapte al perfil individual. Los problemas citados sobre el acceso tecnológico y la diversidad de capacidades y preparación de estudiantes y docentes, identifican una realidad constituida en la educación escolar básica en el Paraguay. Entonces, en esta tesis, como apoyo al proceso educativo, se propone una infraestructura y componentes tecnológicos que puedan recopilar y analizar datos de los estudiantes, y al mismo tiempo brindar a los profesores una herramienta que permita mejorar su gestión. Estos mecanismos facilitarán al docente la tarea de decisión sobre los niveles de los contenidos académicos y pudiendo manipular elementos que ayuden al niño a crecer intelectualmente a un ritmo personalizado y disciplinario, logrando una experiencia personalizada para cada estudiante.

Se traza este objetivo ambicioso en el contexto de la educación primaria en el Paraguay realizando el diseño de una infraestructura propuesta con su correspondiente implementación. Se pretende que la misma solucione, en parte, los problemas citados y siembre bases para futuras investigaciones.

Dicha implementación se encuentra instalada y fue probada en un ambiente real de producción académica en el marco del proyecto OLPC (Una computadora por niño) recabando datos reales y útiles para la detección de modelos de estudiantes que indican (al momento) gran diversidad y resultados concretos, además de proveer y validad un marco de trabajo destinado a pruebas y experimentos de análisis.

 

2009

 

Planificación Óptima de Rotación de cultivos utilizando Algoritmos evolutivos Multiobjetivos

 

AUTOR: -Pavón Mendoza, Ruth Natalia

 

RESUMEN: La rotación de cultivos es un sistema de cultivo alternativo que reduce la dependencia de insumos externos en la agricultura a través del reciclaje interno de nutrientes. Además, permite mantener la productividad de la tierra a largo plazo y romper los ciclos de malezas y enfermedades. Un productor agrícola normalmente desea escoger los mejores cultivos que se adapten al suelo para obtener el mayor beneficio con el menor costo y riesgos posibles; estos objetivos usualmente contradictorios, hacen del problema de rotación de cultivos un problema multiobjetivo. En este trabajo se define el problema de rotación de cultivos multiobjetivo considerando factores económicos y ecológicos. Además, se propone un sistema basado en algoritmos evolutivos multiobjetivo para dar soporte al tomador de decisiones. De manera a validar cuantitativamente el desempeño de los algoritmos analizados, se adoptaron métricas de desempeño reportadas en la literatura de optimización evolutiva multiobjetivo. Los algoritmos analizados obtienen conjuntos de soluciones que minimizan el costo total de inversión y el riesgo económico, mientras, maximizan el retorno promedio de inversión, la cantidad de nutrientes aportados al suelo por los cultivos y la diversificación de la familia botánica de los cultivos; ofreciendo al tomador de decisiones un conjunto de soluciones.

 

Análisis experimental y mejoramiento de estrategias de juego de un agente en la competencia TAC SCM

 

AUTORES: - Sosa Cataldo, Gustavo Arsenio

                  - Villamayor Leguizamón, Jorge Luis

 

RESUMEN: La administración de cadenas de suministro es un problema de gran complejidad en la actualidad debido a la gran cantidad de factores que se deben tener en cuenta para la toma de decisiones. Decisiones acerca de: cómo determinar a qué clientes vender, a qué proveedores comprar y cómo calendarizar el ensamble de los productos son fundamentales para el éxito en la resolución del mencionado problema. Por lo tanto este proceso es de gran relevancia para la comunidad científica, ya que presenta un gran reto y un alto grado de dificultad.

La competencia TAC SCM fue creada para observar el desempeño de las estrategias implementadas por agentes, que son capaces de responder de manera autónoma para la toma de decisiones que aumenten sus probabilidades de éxito y maximicen sus beneficios.

En este trabajo se analizó un agente denominado Cicese diseñado para este escenario, el cual cuenta con un módulo de predicción de la demanda del cliente, y estrategias sencillas tanto para negociar con clientes y proveedores como para administrar su fábrica.

A partir de este agente, nació FacPol, el cual utiliza el módulo de predicción desarrollado en Cicese, y reimplementa las estrategias de los módulos de adquisición, fábrica, inventario y ventas de manera a aumentar su desempeño en comparación al agente original.

En las reimplementaciones de los módulos se introdujeron mejoras, entre las cuales podemos citar la administración de la fábrica, el manejo del inventario tanto de PCs como de componentes, el proceso de cómo realizar las ofertas a los clientes, y las negociaciones con los proveedores para la adquisición de los componentes.

Los resultados de las simulaciones realizadas como parte de los experimentos muestran que, las mejoras propuestas a las estrategias, logran que el agente alcance un mejor desempeño, en términos de la cantidad promedio de dinero que queda en su cuenta al final de los juegos.

 

Secuenciación de Contenidos Educativos Aplicando Algoritmos de Clustering y Optimización por Colonia de Hormigas

 

AUTOR: - Franco Lugo, María José

              - Ramírez Espinoza, Esteban David

 

RESUMEN: El desarrollo de las tecnologías de la información, y particularmente de Internet han conducido a la evolución de infraestructuras de aprendizaje electrónico o e-Learning. A fin de mejorar la experiencia de aprendizaje en el entorno de e-Learning es necesario desarrollar sistemas inteligentes capaces de adaptarse al estilo de aprendizaje de los estudiantes. Un método para implementar la adaptación en un ambiente de aprendizaje en línea es utilizar información sobre los errores y aciertos de los estudiantes en la búsqueda de una secuencia de presentación de contenidos que aporte el mejor rendimiento en el aprendizaje para un grupo de estudiantes con características similares. El desarrollo de este tipo de sistemas es una actividad continua ya que varía de acuerdo a las nuevas tecnologías desarrolladas tanto en el campo de las tecnologías de la información como en el campo de la pedagogía. Si se consideran los diferentes estilos de aprendizaje de los estudiantes, el desarrollo de cursos para entornos e-Learning puede convertirse en una tarea difícil, por ello, es necesario el desarrollo de herramientas que automaticen de manera efectiva la adaptación de estos cursos de acuerdo a las características propias de los estudiantes. Este trabajo presenta por primera vez modificaciones a la plataforma e-Learning Moodle a fin de proveer un mecanismo que permita adaptar la secuenciación de contenidos educativos según los estilos de aprendizaje de los estudiantes. Las modificaciones comprenden: (i) la agrupación de los estudiantes con estilos de aprendizajes similares y (ii) la determinación de la mejor secuencia de contenidos educativos. El método de agrupación de los estudiantes con estilos de aprendizajes similares implementa un algoritmo de clustering basado en el k-prototypes. Por otro lado, se emplea la meta-heurística de optimización por colonia de hormigas para lograr una secuencia colaborativa de los contenidos para cada grupo de estudiantes. Finalmente, para la evaluación del modelo de adaptación, se realizaron pruebas con datos sintéticos y reales para el clustering, con datos sintéticos para la optimización de la secuenciación de contenidos y se analizaron los resultados obtenidos. Por último, se publicó una versión del sistema e-Learning modificado, en un sitio web para su utilización en línea.

 

Ubicación Óptima de Conversores de Longitud de Onda: Una Nueva Propuesta Basada en MOEA

 

AUTORES:   - Maciel Corvalan, Rodrigo Gabriel

                    - Sobrino Acuña, Marco Darío

 

RESUMEN: Con la incorporación de la tecnología que permite división de longitud de onda en las redes  ópticas, la ubicación de conversores de longitud de onda se ha vuelto una estrategia clave para minimizar la probabilidad de bloqueo. El problema de ubicación  óptima de conversores de longitud de onda ha sido parcialmente tratado como un problema mono-objetivo, en el cual se minimiza el número de conversores de longitud de onda sujeto a restricciones de la probabilidad de bloqueos, o de manera alternativa, se busca minimizar la probabilidad de bloqueo con restricciones de costo. Ambas funciones objetivos están en relación de compromiso. Por ello, este trabajo propone un esquema de optimización multi-objetiva basado en un algoritmo evolutivo multi-objetivo (multi-objective evolutionary algorithm, MOEA), en donde son minimizados simultáneamente la probabilidad de bloqueos y el número de conversores de longitud de onda. Extensas simulaciones indican que el enfoque propuesto obtiene mejores resultados sobre un reciente algoritmo del estado del arte.

 

Infraestructura Web para Comunidades y Recursos Científicos - Modelos, servicios y métricas

 

AUTOR: - Parra Trepowski, Cristhian Daniel

 

RESUMEN: Con el advenimiento de la era web, y sobre todo con el auge actual de las redes sociales, el escenario en el que el conocimiento científico se crea y difunde ha cambiado radicalmente. Las oportunidades que ofrece este nuevo escenario todav´ıa no se han aprovechado en su plenitud, especialmente en lo que se refiere a la exploración de los grupos o comunidades que naturalmente surgen, evolucionan y desaparecen en el ámbito de la investigación científica. En esta tesis de grado, se analizan los problemas y desafíos existentes en el desarrollo y modelado de las comunidades científicas. La tesis expone con énfasis particular la importancia de identificar dichas comunidades con el objetivo de mejorar la búsqueda en el proceso de investigación y sentar bases para contar con métodos más justos de evaluación del trabajo científico. Se presenta (i) un modelo conceptual para la definición, descubrimiento, mantenimiento y uso de tales comunidades, (ii) el diseño e implementación de una infraestructura de servicios para interactuar con las comunidades y entidades científicas definidas en el modelo, y (iii) el diseño e implementación de un sistema de gestión de un espacio de recursos que permite el acceso transparente a artículos, experimentos, presentaciones, autores o cualquier otro tipo de recurso científico disponible e identificable por un URI (siglas en inglés para identificador uniforme de recurso).

Además, se proponen nuevas métricas de evaluación del trabajo científico y de los científicos sobre la base de las comunidades científicas, como punto de partida para un futuro trabajo sobre el tema.

 

Ambiente de Simulación para las Estrategias de la Teoría de Juegos (ASETJ)

 

AUTOR: - Pistilli Ambrasath, Klaus Michael

 

RESUMEN: En este trabajo se hace una presentación del Ambiente de Simulación para las Estrategias de la Teoría de Juegos (ASETJ), enfocado a resolver juegos de manera distribuida y paralela sobre la red de redes, Internet.

Conociendo la capacidad ociosa y desperdiciada que existe en Internet, se planteó un esquema de aprovechamiento de esos recursos, mediante técnicas y tecnologías asimiladas de la Grid Computing.

El ASETJ fue creado para observar, experimentar, evaluar, y obtener resultados del desempeño de las diferentes estrategias implementadas para la resolución de los tipos de juegos como Dilema del Prisionero Iterado, Modelo “Halcón-Paloma” Iterado, Modelo “Batalla de los Sexos” Iterado, Modelo “Tragedia de los comunes” Iterado y Transferencia de Utilidades.

En las implementaciones de los distintos componentes y módulos del ASETJ, se presentaron interesantes desafíos, entre los cuales se puede citar la administración de la interfaz de cargado de juegos, el manejo de la entrega de los mismos a los distintos clientes, el desarrollo del cómo se procesan éstos en los clientes, y el almacenamiento permanente de ellos en la base de datos y la temporal en los clientes.

Los resultados de las simulaciones realizadas como parte de los experimentos muestran que, las propuestas hechas, logran la correcta entrega y resolución de los juegos.

Este trabajo posee aportes y contribuciones, teórico-prácticos, logrados mediante herramientas computacionales, técnicas y metodologías multidisciplinarias, provistos para la resolución particular de cada uno de los planteamientos.

 

Modelo de Procesos para Desarrollo de Software

 

AUTOR: - Méndez Xavier, Ellen Luján

 

RESUMEN: Conforme avanza la tecnología, las necesidades de automatización de los procesos se encuentran cada vez relacionadas a la implementación de software que satisfagan las necesidades requeridas. Una de los factores relacionado es la calidad.

Por ello surgen las normas y modelos de procesos, cuya función principal es el control de los procesos relacionados con el desarrollo o actividades relacionadas a gestión y administración de los recursos involucrados en el proceso.

Un gran limitante para adquirir certificaciones de normas internacionales es el costo de implementación y evaluación de los mismos. Es por esto que, varios países de la región han optado por la certificación nacional y creación de modelos de calidad de acuerdo al mercado local dando la posibilidad de incorporar los conceptos de los estándares internacionales de manera incremental.

En este trabajo, se presenta la definición de 3 procesos relacionados con las fases iniciales del desarrollo del software, de manera a definir las principales actividades y tareas relacionadas con cada proceso incluyendo los roles involucrados en los mismos y recomendaciones de documentos o actividades que podrían ser útiles dependiendo del tipo y tamaño de proyecto que está siendo realizando.

A fin de verificar estos procesos, se presentan los resultados obtenidos en la implementación de estos procesos en el desarrollo de un sistema real, tomado como caso de estudio. Con estos resultados, se puede observar los principales beneficios de aplicación de los procesos así también como las características alcanzadas parcialmente para la evaluación del proyecto.

 

2008

 

Equipos de Algoritmos de Hormigas una nueva Propuesta para Optimización Multi-Objetivo

 

AUTOR: - Lezcano Ríos, Christian Gerardo

 

RESUMEN: Las hormigas son insectos sociales que viven en colonias, y que debido a su colaboración mutua, son capaces de mostrar comportamientos complejos y realizar tareas difíciles desde el punto de vista de una hormiga individual. Un aspecto interesante del comportamiento de muchas especies de hormigas es su habilidad para encontrar los caminos más cortos entre su hormiguero y las fuentes de alimento. Este hecho es especialmente interesante si se tiene en cuenta que muchas de las especies de hormigas son casi ciegas, lo que evita el uso de señales visuales.

Mientras que se mueven entre el hormiguero y la fuente de alimento, algunas especies de hormigas depositan una sustancia química denominada feromona. Si no se encuentra ningún rastro de feromona, las hormigas se mueven de manera básicamente aleatoria, pero cuando existe feromona depositada, tienen mayor tendencia a seguir el rastro. De hecho, los experimentos realizados por biólogos han demostrado que las hormigas prefieren de manera probabilística los caminos marcados con una concentración superior de feromona. Este comportamiento permite a las hormigas encontrar los caminos más cortos entre su hormiguero y la fuente del alimento.

Se presenta en este trabajo una perspectiva general de la metaheurística de Optimización Basada en Colonias de Hormigas, la cual se inspira en el comportamiento que rige a las hormigas naturales para encontrar los caminos más cortos entre las fuentes de comida y el hormiguero. Asimismo, se describen los modelos algorítmicos existentes, poniendo un especial énfasis en las últimas técnicas basadas en el concepto de paralelismo.

Este trabajo propone un nuevo enfoque sobre Equipos de Algoritmos de Hormigas distribuidos para la resolución de problemas de optimización multi-objetivos. El método propuesto ha demostrado un significativo efecto cooperativo de los algoritmos combinados en un equipo, logrando robustez en la resolución de distintos problemas combinacionales multiobjetivos.

Experimentalmente, el enfoque propuesto ha verificado un equilibrio sobre diferentes figuras de desempeño en instancias bi-objetivas del Traveling Salesman Problem (TSP), del Quadratic Assignment Problem (QAP) y del Vehicle Routing Problem with Time Windows (VRPTW). Una novedosa clasificación y selección de algoritmos en el sentido Pareto permite lograr una robustez y un equilibrio notable, comprobados en los experimentos presentados.

 

Selección de Cultivos Utilizando Algoritmos Evolutivos Multiobjetivos

 

AUTOR: - Brunelli Montero, Ricardo Luis

 

RESUMEN: En este trabajo se hace una presentación del Ambiente de Simulación para las Estrategias de la Teoría de Juegos (ASETJ), enfocado a resolver juegos de manera distribuida y paralela sobre la red de redes, Internet.

Conociendo la capacidad ociosa y desperdiciada que existe en Internet, se planteó un esquema de aprovechamiento de esos recursos, mediante técnicas y tecnologías asimiladas de la Grid Computing.

El ASETJ fue creado para observar, experimentar, evaluar, y obtener resultados del desempeño de las diferentes estrategias implementadas para la resolución de los tipos de juegos como Dilema del Prisionero Iterado, Modelo “Halcón-Paloma” Iterado, Modelo “Batalla de los Sexos” Iterado, Modelo “Tragedia de los comunes” Iterado y Transferencia de Utilidades.

En las implementaciones de los distintos componentes y módulos del ASETJ, se presentaron interesantes desafíos, entre los cuales se puede citar la administración de la interfaz de cargado de juegos, el manejo de la entrega de los mismos a los distintos clientes, el desarrollo del cómo se procesan éstos en los clientes, y el almacenamiento permanente de ellos en la base de datos y la temporal en los clientes.

Los resultados de las simulaciones realizadas como parte de los experimentos muestran que, las propuestas hechas, logran la correcta entrega y resolución de los juegos.

Este trabajo posee aportes y contribuciones, teórico-prácticos, logrados mediante herramientas computacionales, técnicas y metodologías multidisciplinarias, provistos para la resolución particular de cada uno de los planteamientos.

 

AWA - Agile Web Applications - Una meteorología ágil para el desarrollo de aplicaciones Web

 

AUTOR: - Villalba Martí, Horacio Federico

             - Greco Kanonnikoff, Claudia Carolina

 

RESUMEN: La aparición de la web y su rápida evolución dieron lugar al surgimiento de los sistemas de información web. En la actualidad la web es de gran utilidad en diversas áreas y forma parte de la vida cotidiana de millones de personas.

Para el logro de todo proyecto, incluyendo a los proyectos web, es necesario aplicar diversas metodologías que aseguren la calidad del producto. Actualmente existen varios modelos o paradigmas que guían el proceso de desarrollo del software. En este trabajo se presentan los modelos que constituyen el estado del arte en las metodologías de desarrollo de software.

El entorno y la tecnología involucrados en la web poseen características propias que diferencian el proceso de desarrollo de una aplicación web del proceso de desarrollo de un software tradicional. Teniendo en cuenta las diferencias, y a fin de abordar el crecimiento de los sistemas web y asegurar su eficiencia, confiabilidad y mantenibilidad es necesario contar con un enfoque disciplinado que guíe el proceso de desarrollo de sistemas basados en web para asegurar la entrega y calidad de este tipo de sistemas.

En respuesta a esta imperiosa necesidad se propone y se presenta la metodología AWA - Agile Web Applications. La propuesta está inspirada en las metodologías ágiles de desarrollo de software y en los fundamentos de la ingeniería web.

AWA define un proceso iterativo e incremental para el desarrollo de aplicaciones web. Posee un ciclo de vida corto de desarrollo, está basado en funcionalidades y proporciona entregas rápidas de software funcionales. Es una metodología preparada para afrontar los cambios, posee un método de estimación realista basado en las características del equipo, impulsa la participación activa de los clientes durante todo el desarrollo y propone esquemas simples para realizar el modelado de aplicaciones web.

Para incluir una visión práctica de la metodología, el trabajo describe un caso de estudio real que se ha desarrollado con este método.

 

Apoyando el aprendizaje de Habilidades Empresariales mediante la utilización de un medidor

 

AUTOR: -González Dávalos, Emiliano Rene

 

RESUMEN: Para la realización del presente trabajo de investigación se destacan dos motivaciones principales. Por un lado, la carencia de producción de software educativo utilizando principios metodológicos de la Ingeniería de Software, y por otro lado, la búsqueda de integración de la informática como apoyo a las clases tradicionales. Teniendo presente estas motivaciones se definió como objetivo principal de la tesis “construir una herramienta que pueda ser considerada educativa, utilizando las teorías metodológicas de la Ingeniería de Software”. Para cumplir dicho objetivo se combinaron conceptos tanto de la Ingeniería del Software Educativo, como de la Ingeniería Web y de las nuevas tendencias de desarrollo ágil, particularmente Extreme Programming. El producto resultante fue un simulador empresarial llamado Líder! Este software presenta a los alumnos una empresa virtual de la cual deben tomar algunas decisiones gerenciales que son posteriormente evaluadas por el software. Además de ofrecer la dirección de una empresa, el software presenta un mercado virtual donde las diferentes empresas dirigidas por los mismos alumnos compiten entre sí. La finalidad de dicho software es ofrecer a los alumnos un entorno virtual donde puedan aplicar los conceptos teóricos aprendidos en el aula. También se presenta una evaluación del software desarrollado, que consistió en un análisis sobre diversos criterios basados en una competencia real de la cual participaron alumnos de un bachillerato técnico en administración de negocios. Para el proceso de evaluación, fueron utilizadas diversas herramientas, algunas de ellas propias del software, como el puntaje generado por el simulador y la frecuencia de acceso a la aplicación, y otras herramientas diseñadas específicamente para la experiencia, como ser exámenes específicos y encuestas. Los resultados de la evaluación son prometedores y marcan una tendencia positiva con respecto a la aplicación. Algunos puntos que se destacan son; la receptividad del software por parte de los alumnos, el acertado nivel de complejidad de la aplicación con respecto al grupo de alumnos observado y el incremento del rendimiento académico de los alumnos que participaron de la experiencia de Líder!.

 

2007

 

Optimización de Enjambre de Partículas Aplicada al Problema del Cajero Viajante Bi-Objetivo

 

AUTOR: -Lima Molinari, Joaquín Quinto

 

RESUMEN: Muchas aplicaciones prácticas requieren de la resolución de Problemas de Optimización Combinatoria (COP – Combinatorial Optimization Problems). Estos problemas son resueltos encontrando un ordenamiento, selección, agrupación, combinación o permutación de un número finito de elementos discretos, operaciones o pasos de manera a obtener el mayor provecho posible en el caso práctico relacionado.

Por otra parte, ciertos problemas también involucran la identificación de soluciones considerando simultáneamente múltiples criterios de evaluación. A estos problemas se los denomina Problema de Optimización Multiobjetivo (MOP – Multiobjective Optimization Problem) y se resuelven encontrando el conjunto de soluciones que optimicen a la vez las evaluaciones de todos los objetivos.

La mayoría de los problemas de estos tipos, COPs y MOPs, tienen un espacio de búsqueda muy grande y/o complejo, lo cual hace que las técnicas de resolución tradicionales no resulten aptas para ser aplicadas. Por lo tanto, se hace evidente la necesidad de nuevas técnicas que permitan el tratamiento efectivo de estos problemas.

Los Algoritmos Evolutivos (EA – Evolutionary Algorithms) y la Optimización de Colonia de Hormigas (ACO – Ant Colony Optimization) son ejemplos de tales técnicas alternativas y en la literatura se pueden encontrar varios trabajos que reportan el éxito de su aplicación en la resolución de Problemas de Optimización Combinatoria de Múltiples Objetivos (MOCOP – MultiObjective Combinatorial Optimization Problems).

Este trabajo presenta la aplicación de la metaheurística de Optimización de Enjambre de Partículas (PSO – Particle Swarm Optimization) para resolver el Problema del Cajero Viajante (TSP – Traveling Salesman Problem) bi-objetivo, cuyo objetivo principal es probar empíricamente la efectividad de la aplicación de la metaheurística PSO en la resolución de MOCOPs. Para ello se implementaron enfoques de la metaheurística PSO para la resolución de MOPs (MOPSO – MultiObjective Particle Swarm Optimization) y una adaptación del PSO para el tratamiento del TSP.

La aplicación es validada comparando las soluciones obtenidas por implementaciones basadas en la metaheurística PSO contra las soluciones proporcionadas por implementaciones basadas en la metaheurística ACO, utilizando como referencia las soluciones encontradas por enfoques basados en técnicas tradicionales de resolución de MOPs y del TSP mono-objetivo.

Los resultados de las comparaciones indican que el uso de las técnicas MOPSO junto con la adaptación del PSO para el TSP constituyen una buena alternativa para la resolución del TSP bi-objetivo, demostrándose empíricamente que los conceptos de la metaheurística PSO también pueden ser aplicados en la resolución de MOCOPs.

 

Equipo de algoritmos asíncronos para satisfacción de fórmulas booleanas carlos

 

AUTOR: - Rodríguez Hermosa, Carlos Darío

 

RESUMEN: El Problema de Satisfacibilidad Booleana o SAT (del inglés Boolean Satisfiability Problem) es uno de los problemas centrales de las ciencias de la computación. El mismo consiste en encontrar una asignación de valores a variables Booleanas para una fórmula de lógica proposicional de forma a ser evaluada como verdadera. SAT es un problema NP-Completo y fue el primero en demostrarse pertenecer a esta clase. Como consecuencia, se han planteado una gran cantidad de estrategias y heurísticas que permitan enfrentar la complejidad de la búsqueda. A pesar de contar con algoritmos que han resultado muy exitosos, existe una gran demanda por algoritmos y estrategias que puedan resolver problemas cada vez más grandes y más difíciles. En respuesta a la necesidad mencionada se han propuesto también algoritmos paralelos basados en las heurísticas disponibles. No obstante, existen más implementaciones secuenciales habiendo relativamente pocas opciones que utilicen la computación paralela. La mayoría de estos algoritmos son implementados en base a una de las heurística disponibles, resultando así en una implementación que acarrea las limitaciones del algoritmo base utilizado. Esto se refleja directamente en la capacidad de resolver en forma eficiente determinadas categorías de problemas, pero resultando en un desempeño pobre en las demás categorías. Como propuesta original de este trabajo, se presenta un equipo de algoritmos basado en el paralelismo, utilizando una combinación de algoritmos de búsqueda local representativos del estado del arte así como también algoritmos tradicionales, como ser WalkSAT, R-Novelty+, RSAPS, SAMD, IROTS y Adaptive Novelty+. Con la estrategia propuesta se ha verificado el efecto cooperativo de un equipo de algoritmos y la robustez del mismo ante las diferentes instancias del problema. Empíricamente se demuestra que la estrategia propuesta es capaz de encontrar soluciones satisfactorias para una gran variedad de instancias del problema, convirtiéndose de esta manera en una estrategia general muy competitiva para SAT.

 

Equipo de Algoritmos Meméticos con Adaptación Multinivel para Optimización Multiobjetivo (Multilevel Adaprive Team Algorithm)

 

AUTORES: - Zárate Bazán, Derlis Atilio

                  - Báez González, Marcos Antonio

 

RESUMEN: En la actualidad, los algoritmos evolutivos en su forma pura no son adecuados para realizar búsquedas en espacios complejos, donde la combinación con otras técnicas puede mejorar sustancialmente los resultados obtenidos.

El término algoritmo memético - inspirado en el concepto de meme de Richard Dawkins, como una unidad de transmisión de información en el contexto de la evolución cultural - fue acuñado para describir a la combinación de conceptos y estrategias de diferentes metaheurísticas, en la cual la búsqueda local juega un papel importante.

Los algoritmos meméticos han demostrado ser exitosos en la resolución de problemas de optimización combinatoria y además, están bien adaptados a la resolución de problemas de optimización multi-objetivo.

Este trabajo propone una nueva familia de algoritmos meméticos multi-objetivo, que resulta de una adaptación más memética de los algoritmos meméticos multi-objetivo existentes en el estado del arte. Las adaptaciones introducidas intentan obtener algoritmos más flexibles que requieran mínimos refinamientos previos al aplicarse a nuevos problemas.

Las versiones adaptativas de los algoritmos fueron comparadas con las versiones originales y demostraron tener un mejor desempeño. También se realiza una comparación con algunos enfoques de optimización basados en colonias de hormigas y se demuestra que los algoritmos meméticos tienen un mejor desempeño. Además, tratando de dotar de un mayor potencial a la nueva familia de algoritmos meméticos,

en este trabajo se propone un Equipo de Algoritmos Meméticos Adaptativos para Optimización Multi-objetivo, que se diferencia de los enfoques tradicionales en el hecho de que se establece un mecanismo de adaptación multinivel, combinando el concepto de un Equipo de Algoritmos (adaptaciones globales) junto con la potencia de los Algoritmos Meméticos Adaptativos Multiobjetivos (adaptaciones a nivel de cada algoritmo del equipo).

Todos los algoritmos fueron probados sobre versiones bi-objetivas de conocidos problemas de optimización combinatoria: Traveling Salesman Problem (TSP) y Quadratic Assignment Problem (QAP).

 

MIDS: Modelo Inicial de Desarrollo de Software - Una metodología ágil como iniciación  en el uso de modelos de procesos de Software

 

AUTOR: -Bañuelos Gómez, Enrique

 

RESUMEN: El desarrollo de software ya tiene años de trayectoria como una actividad comercial en el país. Sin embargo, hasta ahora no se han realizado esfuerzos para evaluar la situación de los mismos en comparación a estándares de calidad del área.

El presente trabajo, como uno de sus aportes, presenta una evaluación de los entornos de desarrollo de software locales acerca de prácticas básicas de Ingeniería de Software que se utilicen actualmente. En base al resultado de esta evaluación, como segundo aporte, se propone el “Modelo Inicial de Desarrollo de Software MIDS” como un modelo de procesos de software sencillo que pueda ser adoptado por las organizaciones locales y que permita la mejora de sus procesos.

El MIDS se basa en Metodologías Ágiles y propone un conjunto de prácticas y documentaciones mínimo como para poder ser implementado en entornos que no tienen definidos sus procesos, pero que a su vez introduzcan la disciplina necesaria para el desarrollo de software. Sus principales ventajas son el establecimiento de una metodología de trabajo que incluye prácticas de desarrollo y mecanismos de interacción con los clientes, utilización de programación en pares para determinadas situaciones, pruebas de unidad, gestión de versiones y estándares de codificación.

Para validar las ventajas que el MIDS ofrece, se realizó un caso de estudio aplicando el modelo propuesto al desarrollo de un software de gestión.

 

2006

 

Optimización Multi-Objetivo basada en Colonias de Hormigas Teoría y Estrategias de Paralelización

 

AUTOR: - Pacielo Coronel, Julio Manuel

             - Martínez Santacruz, Hector Daniel

 

RESUMEN: Las colonias de hormigas reales fueron estudiadas por los científicos en décadas anteriores, muchos de ellos buscaron comprender el comportamiento natural de estos insectos en su búsqueda de alimentos. Claramente, este tipo de insectos así como otros, presenta un comportamiento natural que a partir de mecanismos simples consigue objetivos muy llamativos que pueden ser considerados “inteligentes” dado que para las personas requerirían de razonamiento.

Un ejemplo llamativo de este comportamiento son las hormigas en su búsqueda de alimentos, que por medio de una sustancia química que segregan son capaces, trabajando como colonia, de encontrar el camino más corto desde su nido a una fuente de alimento. Cabe resaltar que las hormigas son insectos ciegos, y logran el comportamiento mencionado con el trabajo grupal y una comunicación indirecta producida al segregar una sustancia química que las demás hormigas pueden percibir.

La teoría de la meta-heurística ACO (“Ant Colony Optimization”) fue propuesta como una teoría que modela el comportamiento natural de las hormigas reales, y es utilizada con éxito en la resolución de problemas de optimización multi-objetivo. Este trabajo describe la teoría ACO y presenta distintos algoritmos existentes e inspirados en esta teoría.

Experimentalmente, se realiza una comparación entre diversos algoritmos ACO utilizando tres problemas de prueba bi-objetivos, el “Quadratic Assignment Problem” (problema de asignación cuadrática), el “Traveling Salesman Problem” (problema del cajero viajante) y el “Vehicle Routing Problem with Time Windows” (problema de ruteo de vehículos con ventanas de tiempo), considerando diversos algoritmos ACO que constituyen el estado del arte en la teoría basada en colonias de hormigas.

Como propuesta original de este trabajo, se presenta un equipo de algoritmos ACO basado en el paralelismo para resolver problemas multi-objetivos. Además, se propone un nuevo algoritmo multi-objetivo, el “Multiobjective Ant System”, y se verifica un buen comportamiento empírico en los problemas mencionados. Se verifica el efecto cooperativo del equipo de algoritmos y la robustez del mismo ante los diferentes problemas utilizados. Empíricamente se demuestra que una estrategia de utilizar una única tabla de feromonas y múltiples visibilidades supera a otras propuestas como alternativa de diseño para un algoritmo ACO multi-objetivo.

 

Implementación de Infraestructura de Clave Pública en la Red de la Universidad Nacional de Asunción

 

AUTOR: - Talavera Horn, Juan Esteban

 

RESUMEN: En este documento se presenta la infraestructura de clave pública que ha sido implementada en la Red de la Universidad Nacional de Asunción. Se presentan las necesidades de seguridad de dicha red, y se detallan los servicios que la infraestructura ofrece a los usuarios para solventar estas necesidades.

La estructura interna y organización de la infraestructura es detallada en el documento, así como la manera en que esta sería implantada en los organismos usuarios de la Red.

La infraestructura implementada tiene la peculiaridad de utilizar al DNS como repositorio de certificados digitales, y como medio para la validación del estado de los certificados. Esta característica fue implementada según lo propuesto en la tesis de maestría de Pablo Greenwood [9].

Se presentan algunas pruebas de casos prácticos que fueron realizadas utilizando la implementación de la infraestructura dentro de la Red de la Universidad.

 

Arquitectura Distribuidora Dsoara para Detección de Intrusos

 

AUTOR: - Pane Fernández, Juan Ignacio

              - Alvares García, Marcelo Luis

 

RESUMEN: En la actualidad, es posible observar el crecimiento de la Internet, así mismo como la proliferación de importantes recursos manejados en esta red. Por estos motivos, surge claramente la necesidad que los operadores de seguridad en redes cuenten con robustos sistemas de detección de intrusos (IDS – Intrusion Detection Systems) eficientes, efectivos y fáciles de utilizar.

Un gran número de alarmas generadas por estos sistemas de detección de intrusos generalmente se refieren a supuestos ataques que en realidad no ocurrieron. De esta manera, los operadores de seguridad se enfrentan a la problemática de detectar alarmas verdaderas entre un conjunto de alarmas que posiblemente incluyen estos supuestos ataques denominados false positive. Se han propuesto varios enfoques para reducir el número de alarmas generadas por un IDS. Sin embargo, los trabajos revisados no consideran escenarios donde se encuentran entidades que desean cooperar a fin de construir un sistema distribuido de detección de intrusos con reducción de alarmas, de manera a incrementar la seguridad global de todas las entidades. Además, no se tienen en cuenta la existencia de cuestiones concernientes a la confidencialidad de la información manejada por cada entidad. Por este motivo surge la necesidad de un esquema que preserve la privacidad de los datos manejados y permita al mismo tiempo la cooperación.

El presente trabajo presenta por primera vez una Arquitectura Distribuida cooperativa de reducción del flujo de alarmas, DSOARA (Distributed Stream Of Alarms Reduction Architecture). Esta arquitectura reduce las alarmas generadas mediante el uso de algoritmos de detección de intrusos basados en variaciones sobre los flujos de alarmas. La solución propuesta cumple con las consideraciones de privacidad concernientes a los datos originales. Esta propuesta se basa en el trabajo presentado por Levera et al., SOARA.

Resultados experimentales demuestran que el DSOARA puede detectar cambios en las tendencias de alarmas, lo que le permite centrar la atención en los datos más importantes, mejorando así la calidad de los resultados generados por SOARA.