Magísteres
URI permanente para esta colección
Examinar
Examinando Magísteres por browse.metadata.facultadtesis "Facultad de Ciencias Empresariales"
Mostrando 1 - 6 de 6
Resultados por página
Opciones de ordenación
- TesisAlgoritmos de broadcasting para un LBS consciente de la privacidad de ubicación de sus usuarios(Universidad del Bío-Bío. Departamento de Sistemas de Información, 2020)
;Torres-Osses, Pablo Ignacio ;Durán-Faúndez, Cristián RodrigoGaldames-Sepúlveda, Patricio AlejandroLos servicios basados en la ubicación (conocidos como LBS) son utilizados por usuarios de redesmóviles inalámbricas y les dan a conocer, por ejemplo, detalles de los puntos de interés turísticos cercanos a la posición de un visitante, o bien para dar a conocer si en la vecindad de una persona existe algún hospital. El problema es que la ubicación se transforma en un pseudo-identificador cuando es relacionada con datos públicos ya que permite individualizar o crear un perfil del usuario. Hoy en día, la técnica más popular propuesta para proteger la privacidad de ubicación de una persona que accede a un LBS, consiste en que el usuario le envía una consulta con posición encubierta (CUE). Una CUE consiste de una consulta de rango tradicional pero asociada no solo a una sino que a k posiciones distintas (k-anonimato) y posibles de ser la verdadera posición del usuario (de hecho una de ellas es la real). El desafío por parte del LBS es cómo procesar eficientemente una cantidad masiva de consultas con posición encubierta sin que esto le signifique una mayor carga de trabajo, una mayor latencia y una mayor pérdida de la privacidad de ubicación de sus usuarios. Para enfrentar estos desafíos, nuestra idea es que el LBS procese en batch todas las consultas recibidas en un periodo de tiempo y ordene las respuestas apropiadamente para luego enviarlas en un broadcast público que sea escuchado por todos los usuarios, es decir, tanto por aquellos que solicitaron algún servicio como por aquellos que pretenden solicitarlo. De esta forma, el LBS proactivamente busca reducir la latencia, proteger la privacidad de ubicación de sus usuarios y reducir su carga de trabajo sirviendo a los usuarios antes que estos le envíen sus consultas. En este informe de tesis se proponen tres diferentes algoritmos de scheduling para ordenar los datos a transmitir en un broadcast: algoritmos de envergadura, algoritmo de popularidad, algoritmo de relevancia y otras tres variantes que incorporan la latencia. Se realizaron extensas simulaciones para evaluar la efectividad de estas técnicas en términos del rendimiento del LBS y la calidad de las respuestas transmitidas. Este trabajo también propone una métrica para evaluar el grado de pérdida de privacidad de ubicación cuando un usuario no encuentra respuesta en el broadcast y debe, por lo tanto, enviar su consulta al LBS. - TesisAlgoritmos polinomiales para reparar data warehouses inconsistentes(Universidad del Bío-Bío. Departamento de Sistemas de Información, 2013)
;Arredondo-Flores, Raúl EduardoCaniupán-Marileo, Mónica AlejandraUn Data Warehouse (DW) es un almacén de datos que se modela utilizando el modelo multidimensional, el cual estructura la información de acuerdo a dimensiones y hechos. Una dimensión es un concepto abstracto que agrupa datos que comparten un significado semántico común. Las dimensiones se modelan mediante jerarquías de categorías, las que contienen elementos. Una dimensión es estricta si cada elemento de toda categoría tiene un único ancestro en cada categoría superior y homogénea si cada elemento tiene al menos un ancestro en cada categoría superior. Si una dimensión no satisface las restricciones de integridad que imponen estas condiciones, al utilizar vistas precomputadas para responder consultas, se pueden obtener respuestas incorrectas. Una dimensión se puede volver inconsistente con respecto a sus restricciones de integridad estrictas y homogéneas luego de efectuar una actualización, por ejemplo, luego de una reclasificación de elementos. Cuando esto sucede es necesario reparar (corregir) la dimensión. Una reparación es una nueva dimensión que satisface el conjunto de restricciones estrictas y homogéneas y se obtiene mediante inserción y eliminación de arcos entre elementos de las categorías. Una reparación es minimal si se obtiene mediante un número mínimo de cambios. Se ha demostrado que en general computar reparaciones minimales con respecto a restricciones de integridad estrictas y homogéneas es un problema NP-completo. Sin embargo, se ha mostrado que si la dimensión se vuelve inconsistente luego de una única operación de reclasificación de elementos es posible computar una reparación, que contiene la actualización, en tiempo polinomial. En esta tesis se implementan algoritmos para computar reparaciones que mantienen las operaciones de reclasificación que producen las inconsistencias. Esto para un caso particular de dimensiones. Además, se consideran otras restricciones que pueden ser impuestas por el administrador del Data Warehouse, tales como restricciones de prioridad y seguridad. - TesisBúsqueda dinámica de patrones sobre trayectorias(Universidad del Bío-Bío. Departamento de Sistemas de Información, 2016)
;Cabrera-Crot, Luis EmilioCaniupán-Marileo, Mónica AlejandraHoy en día existen diversas fuentes de datos móviles tales como redes inalámbricas, GPS, y otras, que nos permiten recolectar las ubicaciones geográficas de objetos de manera constante generando grandes colecciones de datos. Estos datos pueden ser usados para generar trayectorias de objetos, donde una trayectoria es una secuencia de segmentos de líneas representando el movimiento continuo de un objeto entre dos instantes de tiempo. Existen aplicaciones de minería de datos que permiten obtener patrones de trayectorias de objetos, es decir, encontrar comportamientos similares que siguen las trayectorias. Estos patrones son útiles, por ejemplo, para decidir sobre planificación urbana, analizar congestión vehicular, comprender migración de animales, estudiar comportamiento de fenómenos naturales como huracanes, etc. En esta tesis se presenta un nuevo concepto de trayectoria agregada y se presentan algoritmos para obtenerlas de manera dinámica. Una trayectoria agregada corresponde a una nueva trayectoria que se obtiene a partir de un conjunto de trayectorias que siguen un patrón similar de comportamiento. Una trayectoria agregada no solo muestra el patrón de comportamiento, sino que además, nos indica la densidad de ese patrón. El procesamiento para obtener una trayectoria agregada se realiza en dos fases: (i) obtención de clústeres o grupos de segmentos de trayectorias diferentes y (ii) agregación de clústeres similares. En esta tesis proponemos aplicar un procesamiento de obtención de clústeres que permita capturar relaciones entre sub-segmentos de segmentos de trayectorias que los algoritmos comunes de la literatura. Además, nuestros algoritmos calculan trayectorias de manera dinámica, a diferencia de otros algoritmos de búsqueda de patrones sobre trayectorias que realizan el procesamiento de manera estática. Es decir, el proceso de construcción de trayectorias agregadas se adapta a medida que se procesan nuevas trayectorias y no es necesario procesar todo el conjunto de trayectorias desde cero si nuevas trayectorias son consideradas en la búsqueda de la trayectoria agregada. Finalmente, a diferencia de otras propuestas no solo se considera la cercanía espacial de trayectorias, sino que además la cercanía temporal. La evaluación experimental realizada comparando resultados en el estado de arte muestra que los algoritmos propuestos son eficaces en el cómputo de trayectorias agregadas. - TesisComparación de rendimiento de técnicas de aprendizaje automático para análisis de afecto sobre textos en español(Universidad del Bío-Bío. Departamento de Sistemas de Información, 2017)
;Elgueta-Morales, Jorge Andrés ;Vidal-Castro, Christian LautaroSegura-Navarrete, Alejandra AndreaAnalizar la subjetividad en textos disponibles puede entregar diversos beneficios para las organizaciones y personas. En particular, el Análisis de Afecto intenta descubrir el afecto que le imprime el escritor a sus textos. El análisis automatizado de textos se convierte en un problema de clasificación que puede ser resuelto con técnicas de aprendizaje automático. Sin embargo, la mayor parte de estos análisis han sido realizados para corpus de textos escritos en inglés. Este trabajo comparó la aplicación de técnicas de aprendizaje automático y de NLP sobre textos en idioma español, realizando un proceso de análisis de afecto mediante la aplicación de 3 clasificadores basados en técnicas de aprendizaje automático y estudiando la incidencia de técnicas de NLP, como stopwords y etiquetado POS. Para ello, se configuró un experimento sobre un corpus en español elaborado con titulares de periódicos online de Chile. Los mejores resultados de rendimiento del clasificador se obtienen con la técnica Support Vector Machine sobre un corpus. - TesisIncorporando indicador de confianza sobre la calidad de información contextual en sistemas de recomendación conscientes del contexto(Universidad del Bío-Bío. Departamento de Sistemas de Información, 2018)
;Torres-Carrasco, Joel SebastiánCampos-Soto, Pedro GerónimoLos sistemas de recomendación (RS) entregan mejores sugerencias a sus usuarios cuando se procesa información. Actualmente, existen RS que incorporan información de contexto en las sugerencias. Contexto es todo aquel dato, excepto usuario e ítem, que condicione la elección del usuario sobre un ítem. Una interesante fuente de información contextual son los comentarios realizados por los usuarios al calificar un ítem. Usando métodos estándar del área de Extracción de Información para aumentar la información disponible, es posible extraer esta información de manera automática, aunque con diversos grados de calidad. Por esto resulta interesante considerar la confianza que se puede tener en la información obtenida. En este trabajo, se presenta una estrategia de Extracción de Información basada en una taxonomía de información contextual que permite extraer información de contexto desde fuentes textuales (reviews) de manera automática. Se ha considerado el análisis de literatura referente a modelado de contexto en sistemas ubicuos, pervasivos, y de recomendación, y se ha generado una taxonomía que describe conceptos de información de contexto. En conjunto con ello, se ha desarrollado un algoritmo para pre-filtrar la información obtenida, en base a un indicador de confianza en la información detectada. Finalmente, se realiza un detallado análisis del impacto del uso de la información de contexto obtenida en base a la taxonomía desarrollada. Además, se considera el efecto de diferentes estrategias para medir la confianza en la información, en los resultados del proceso de recomendación consciente del contexto. - TesisModelo de detección automática de ironía en textos en español(Universidad del Bío-Bío. Departamento de Sistemas de Información, 2017)
;Pinto-Cruces, Marcelo Francisco José ;Segura-Navarrete, Alejandra AndreaVidal-Castro, Christian LautaroActualmente, la detección automática de ironía en textos es un tema abierto de trabajo, el cual está siendo abordado por distintos grupos de investigación. La ironía es definida de distintas formas y la mayoría de los trabajos converge en definirla como el uso de palabras para expresar algo distinto y opuesto al sentido literal. Además, dado que las personas a menudo usan la ironía para expresar sus opiniones, la detección de esta es de interés para investigadores del área de análisis de sentimientos, debido a que permite evitar interpretaciones erróneas de opiniones y decidir cuándo una de ellas es o no irónica o literal. Este trabajo propone un nuevo modelo de detección de ironía en textos en español a partir de los enfoques estudiados en una revisión sistemática de literatura, en la cual se revisaron artículos relacionados con la detección de ironía, sarcasmo y minería de opinión. Para evaluar el modelo se construyó un corpus de evaluación compuesto de tweets en español recopilados de acuerdo a distintos dominios temáticos, los cuales fueron etiquetados como irónicos y no irónicos por evaluadores humanos. Junto con lo anterior, se desarrolló una aplicación que permite realizar tareas de pre-procesado y procesado de cada característica que compone nuestro modelo para finalmente generar el dataset para evaluación. Este nuevo modelo tomó como base las características de ironía más utilizadas en los modelos revisados y además introduce 2 nuevas características. Finalmente, el modelo quedó conformado por los atributos: Uso de emoticonos, Uso de Mayúsculas, Uso de Signos de Puntuación, Uso de Palabras típicas de ironía, Uso de Adverbios temporales y no temporales, Análisis de Contradicción Texto-Emoticón, Análisis de ngramas y Análisis de skipgramas. Se obtuvieron rendimientos generales de hasta un 78 %, valor considerado aceptable en comparación a los modelos existentes y prometedor considerando la prácticamente nula existencia de trabajos de detección automática de ironía en textos en español.