Magísteres
URI permanente para esta colección
Examinar
Envíos recientes
Mostrando 1 - 5 de 15
- TesisAlgoritmos de broadcasting para un LBS consciente de la privacidad de ubicación de sus usuarios(Universidad del Bío-Bío. Departamento de Sistemas de Información, 2020)
;Torres-Osses, Pablo Ignacio ;Durán-Faúndez, Cristián RodrigoGaldames-Sepúlveda, Patricio AlejandroLos servicios basados en la ubicación (conocidos como LBS) son utilizados por usuarios de redesmóviles inalámbricas y les dan a conocer, por ejemplo, detalles de los puntos de interés turísticos cercanos a la posición de un visitante, o bien para dar a conocer si en la vecindad de una persona existe algún hospital. El problema es que la ubicación se transforma en un pseudo-identificador cuando es relacionada con datos públicos ya que permite individualizar o crear un perfil del usuario. Hoy en día, la técnica más popular propuesta para proteger la privacidad de ubicación de una persona que accede a un LBS, consiste en que el usuario le envía una consulta con posición encubierta (CUE). Una CUE consiste de una consulta de rango tradicional pero asociada no solo a una sino que a k posiciones distintas (k-anonimato) y posibles de ser la verdadera posición del usuario (de hecho una de ellas es la real). El desafío por parte del LBS es cómo procesar eficientemente una cantidad masiva de consultas con posición encubierta sin que esto le signifique una mayor carga de trabajo, una mayor latencia y una mayor pérdida de la privacidad de ubicación de sus usuarios. Para enfrentar estos desafíos, nuestra idea es que el LBS procese en batch todas las consultas recibidas en un periodo de tiempo y ordene las respuestas apropiadamente para luego enviarlas en un broadcast público que sea escuchado por todos los usuarios, es decir, tanto por aquellos que solicitaron algún servicio como por aquellos que pretenden solicitarlo. De esta forma, el LBS proactivamente busca reducir la latencia, proteger la privacidad de ubicación de sus usuarios y reducir su carga de trabajo sirviendo a los usuarios antes que estos le envíen sus consultas. En este informe de tesis se proponen tres diferentes algoritmos de scheduling para ordenar los datos a transmitir en un broadcast: algoritmos de envergadura, algoritmo de popularidad, algoritmo de relevancia y otras tres variantes que incorporan la latencia. Se realizaron extensas simulaciones para evaluar la efectividad de estas técnicas en términos del rendimiento del LBS y la calidad de las respuestas transmitidas. Este trabajo también propone una métrica para evaluar el grado de pérdida de privacidad de ubicación cuando un usuario no encuentra respuesta en el broadcast y debe, por lo tanto, enviar su consulta al LBS. - TesisIncorporando indicador de confianza sobre la calidad de información contextual en sistemas de recomendación conscientes del contexto(Universidad del Bío-Bío. Departamento de Sistemas de Información, 2018)
;Torres-Carrasco, Joel SebastiánCampos-Soto, Pedro GerónimoLos sistemas de recomendación (RS) entregan mejores sugerencias a sus usuarios cuando se procesa información. Actualmente, existen RS que incorporan información de contexto en las sugerencias. Contexto es todo aquel dato, excepto usuario e ítem, que condicione la elección del usuario sobre un ítem. Una interesante fuente de información contextual son los comentarios realizados por los usuarios al calificar un ítem. Usando métodos estándar del área de Extracción de Información para aumentar la información disponible, es posible extraer esta información de manera automática, aunque con diversos grados de calidad. Por esto resulta interesante considerar la confianza que se puede tener en la información obtenida. En este trabajo, se presenta una estrategia de Extracción de Información basada en una taxonomía de información contextual que permite extraer información de contexto desde fuentes textuales (reviews) de manera automática. Se ha considerado el análisis de literatura referente a modelado de contexto en sistemas ubicuos, pervasivos, y de recomendación, y se ha generado una taxonomía que describe conceptos de información de contexto. En conjunto con ello, se ha desarrollado un algoritmo para pre-filtrar la información obtenida, en base a un indicador de confianza en la información detectada. Finalmente, se realiza un detallado análisis del impacto del uso de la información de contexto obtenida en base a la taxonomía desarrollada. Además, se considera el efecto de diferentes estrategias para medir la confianza en la información, en los resultados del proceso de recomendación consciente del contexto. - TesisEstructura y variabilidad de frentes termales en el mar interior de Chiloé y zona costera adyacente(Universidad del Bío-Bío. Departamento de Física, 2018)
;Hernández-Ojeda, Wilber Jose ;Saldías-Yau, Gonzalo SebastiánPérez-Santos, IvánLos frentes oceánicos desempeñan un papel importante en los ecosistemas marinos. La importancia de los frentes se debe a su impacto tanto en la física como también en los procesos biogeoquímicos del océano. Datos satelitales ofrecen una visión sinóptica de la variabilidad de los frentes, lo cual es necesario para estudiar zonas frontales costeras. Datos in situ de la boya oceanográfica ubicada en Seno Reloncaví fue usada para validar datos satelitales y estudiar la variabilidad temporal de la TSM. Esta comparación de datos satélitales e in situ mostraron buena correlación. El objetivo de este trabajo es analizar la estructura y variabilidad de frentes termales superficiales en el Mar Interior de Chiloé (MIC) usando datos satelitales del producto Multi-scale Ultra-high Resolution (MUR) que contiene campos diarios de TSM con una resolución de 1 km para el periodo 2003-2019. Para la identificación de los frentes, se aplicó un método de detección frontal de Canny (1986) basado en gradiente para aumentar la precisión de la identificación frontal, donde se usaron los umbrales [0,08 0,10] oC/km. También se calcularon las probabilidades frontales en cada píxel como la relación entre el número de veces que el píxel califica como un frente y el número de veces que el píxel está libre de nubes durante un periodo de tiempo. A los campos de TSM se le realizaron diferentes análisis, incluyendo análisis armónico, Funciones Empíricas Ortogonales (FEO), cálculos de anomalías, desviación estándar y promedios climatológicos. Particularmente en el FEO, se analizó la series de tiempo y la respectiva comparación con los índices climáticos (MEI, PDO y SAM) como posibles responsables de la variabilidad en el MIC. Entre los principales resultados en este estudio destacamos lo siguiente: En relación a la climatología, existen valores mas altos en verano y mínimo en invierno, consecuencia de esto la Magnitud del Gradiente presento mayores valores en verano y menores en invierno. Por ultimo en la Probabilidad Frontal (PF), se muestra la variabilidad a interanual y estacional, esta ultima muestra una PF alta en verano-primavera y menores en invierno. Cabe señalar, que en invierno la Magnitud del Gradiente presentaba valores de magnitud pequeños. Sin embargo, para esta misma estación al utilizar PF se perciben frentes, demostrando ser un método mas robusto para la detección de frentes. Futuros análisis incluirán las descargas de los ríos a escala estacional en el MIC, los cuales serian responsable de la variabilidad de la TSM en nuestra zona de estudio. - TesisAlgoritmos polinomiales para reparar data warehouses inconsistentes(Universidad del Bío-Bío. Departamento de Sistemas de Información, 2013)
;Arredondo-Flores, Raúl EduardoCaniupán-Marileo, Mónica AlejandraUn Data Warehouse (DW) es un almacén de datos que se modela utilizando el modelo multidimensional, el cual estructura la información de acuerdo a dimensiones y hechos. Una dimensión es un concepto abstracto que agrupa datos que comparten un significado semántico común. Las dimensiones se modelan mediante jerarquías de categorías, las que contienen elementos. Una dimensión es estricta si cada elemento de toda categoría tiene un único ancestro en cada categoría superior y homogénea si cada elemento tiene al menos un ancestro en cada categoría superior. Si una dimensión no satisface las restricciones de integridad que imponen estas condiciones, al utilizar vistas precomputadas para responder consultas, se pueden obtener respuestas incorrectas. Una dimensión se puede volver inconsistente con respecto a sus restricciones de integridad estrictas y homogéneas luego de efectuar una actualización, por ejemplo, luego de una reclasificación de elementos. Cuando esto sucede es necesario reparar (corregir) la dimensión. Una reparación es una nueva dimensión que satisface el conjunto de restricciones estrictas y homogéneas y se obtiene mediante inserción y eliminación de arcos entre elementos de las categorías. Una reparación es minimal si se obtiene mediante un número mínimo de cambios. Se ha demostrado que en general computar reparaciones minimales con respecto a restricciones de integridad estrictas y homogéneas es un problema NP-completo. Sin embargo, se ha mostrado que si la dimensión se vuelve inconsistente luego de una única operación de reclasificación de elementos es posible computar una reparación, que contiene la actualización, en tiempo polinomial. En esta tesis se implementan algoritmos para computar reparaciones que mantienen las operaciones de reclasificación que producen las inconsistencias. Esto para un caso particular de dimensiones. Además, se consideran otras restricciones que pueden ser impuestas por el administrador del Data Warehouse, tales como restricciones de prioridad y seguridad. - TesisDeterminación inversa de la conductividad térmica en madera de Pinus radiata(Universidad del Bío-Bío. Departamento de Ingeniería en Maderas, 2017)
;Acuña-Alegría, Luis Felipe ;Salinas-Lira, Carlos HernánAnanías-Abuter, Rubén AndrésSe realizan experimentos a escala de laboratorio para caracterizar el secado artificial de madera de Pinus radiata a temperaturas convencionales (70/50°C) y aceleradas (90/60°C): distribuciones transitorias y espaciales de contenidos de humedad y temperatura, así como, determinación de propiedades térmicas (conductividad térmica y calor específico) en función del contenido de humedad. Los datos experimentales obtenidos permiten, en primera instancia, determinar la conductividad térmica de la madera a través de metodología inversa y también, validar los valores numéricos obtenidos. El análisis comparativo muestra que la implementación de la metodología inversa desarrollada entrega información consistente con datos experimentales obtenidos y/o disponibles en la literatura especializada: conductividades térmicas crecientes con el aumento de la humedad y la temperatura, cuyos valores fluctúan entre 0,34 y 0,56 (W/m K) para variaciones de humedad entre 22% y 64%; y temperaturas entre 70°C a 90°C, respectivamente. Por último, conclusiones son dadas en base a la pertinencia de determinar propiedades de transporte a través de metodología inversa y su posterior validación con datos experimentales. En este sentido, se presentaron errores que fluctúan entre 3,83% y 12,7% para programas de secado 70/50°C y 90/60°C, respectivamente.
- «
- 1 (current)
- 2
- 3
- »