DTL 2015

DTLCONFERENCIAS

Becas de viaje DTL 2015.

Becas de viaje DTL 2015

Estas son las propuestas clasificadas tras los proyectos becados. Todas ellas han recibido una beca de viaje para poder asistir a las conferencias DTL 2015 en MIT y poder presentar sus ideas y trabajos frente a la comunidad DTL.

Plataforma de aprendizaje de procedimientos de ingeniería inversa de segmentación por comportamiento en redes publicitarias (DeepBET)

Sotirios Chatzis (Cyprus University of Technology), Aristodemos Paphitis (Cyprus University of Technology)

Las redes publicitarias online son un claro ejemplo de los servicios online que se aprovechan de los datos de usuarios con fines de segmentación por comportamiento. Un problema significativo de estas tecnologías es su falta de transparencia. Por este motivo la ingeniería inversa aplicada a los mecanismos de segmentación por comportamiento en publicidad ha atraído recientemente el interés de los investigadores. Los enfoques existentes consultan redes publicitarias utilizando perfiles de usuario artificiales, cada uno de los cuales pertenece a una categoría única de usuario. Sin embargo, los servicios publicitarios bien diseñados no se basan únicamente en simples categorizaciones de usuario: un usuario asignado a múltiples categorías puede obtener varios anuncios distintos a la configuración de anuncios pertenecientes a cada uno de los intereses individuales. Es incluso más importante tener en cuenta que los intereses pueden variar con el tiempo. Sin embargo, ninguno de los sistemas de ingeniería inversa es capaz de determinar cómo los mecanismos de las redes publicitarias se adaptan a estas dinámicas temporales.

El objetivo de esta propuesta es desarrollar una plataforma que aborde estas deficiencias aprovechando avanzados métodos de aprendizaje automático. La plataforma propuesta es capaz de (i) crear de modo inteligente un grupo de intereses basados en el perfil del usuario con los que consultar redes de publicidad. Esto garantiza que los perfiles (artificiales) de usuario usados para consultar las redes publicitarias analizadas se corresponden todo lo posible con el grupo de combinaciones de los intereses del usuario (características). (ii) Obviar la necesidad de depender de algunos árboles de categoría/interés de los usuarios ya que puede ser restrictiva para el análisis o incluso engañosa. En su lugar, nuestra plataforma es capaz de producir de manera fiable agrupaciones de contenido parecidas a los árboles (clustering) de webs hacía grupos de interés totalmente sin supervisar. (iii) Llevar a cabo conclusiones de las correlaciones entre características de usuario y los contenidos de redes publicitarias de modo que permita generalizaciones altamente escalables. (iv) Determinar cómo las dinámicas temporales afectan a estas correlaciones y hasta qué horizontes temporales.

Alibi: convertir el rastreo en beneficio para el usuario

Marcel Flores, Andrew Kahn, Marc Warrior, Aleksandar Kuzmanovic (PI) (Northwestern University))

Proponemos Alibi, un Sistema que permite a los usuarios aprovechar el trabajo que hacen los rastreadores online para grabar e interpretar su comportamiento. La idea principal es usar fácilmente los contenidos personales disponibles, generados por rastreadores a tiempo real, a modo de verificar un usuario online de modo continuo y privado. Proponemos usar el rastreador de contenido personal generado, proporcionado por el usuario, para construir una representación de multi-rastreo usuario-vector que pueda aplicarse a varios escenarios de verificación. Los principales objetivos de la investigación de este proyecto exploran las propiedades fundamentales de estas representaciones usuario-vector, esto es, sus construcciones, singularidad, persistencia, resiliencia, utilidad en la verificación online, etc. El objetivo principal del proyecto es diseñar, implementar y evaluar el servicio Alibi y ponerlo a disposición pública.

En dirección a que los sistemas olviden

Yinzhi Cao (Lehigh University and Columbia University)

Los sistemas de hoy en día producen una gran cantidad de datos, y los datos mismos derivan en más datos, formando una red de divulgación de datos que llamamos el linaje de datos. Hay muchos motivos por los cuales los usuarios quieren que los sistemas olviden ciertos datos incluyendo su origen. Desde la perspectiva de la privacidad, los usuarios que se preocupan por los riesgos de privacidad de los sistemas a menudo quieren que los sistemas olviden los datos y su linaje. Desde la perspectiva de la seguridad, si un atacante contamina un detector de anomalías introduce datos manualmente en el conjunto de datos de entrenamiento, el detector debe olvidar los datos introducidos para recuperar seguridad. Desde la perspectiva de la usabilidad un usuario puede eliminar ruido y entradas incorrectas para que el motor de recomendaciones recomiende prácticas útiles. Por lo tanto, concebimos sistemas que sean capaces de olvidar ciertos datos y su linaje de modo rápido y por completo.

En esta propuesta nos enfocamos en que los sistemas aprendan a olvidar, el proceso que llamamos automatización del desaprendizaje o simplemente desaprendizaje. Planteamos una aproximación general y eficiente de desaprendizaje a través de la transformación de algoritmos de aprendizaje usados en el sistema en forma de sumatorio. Para olvidar una muestra del conjunto de datos de entrenamiento, nuestra aproximación actualiza un pequeño número de la suma– asintóticamente más rápido que volver a entrenar desde el principio. Nuestra aproximación es general porqué el formato de la suma proviene de de la consulta de aprendizaje estadístico en la cual los algoritmos de aprendizaje automático pueden ser implementados. Nuestra aproximación también se aplica a los estadios de aprendizaje automático incluyendo características de selección y modelado.

Aportando imparcialidad y transparencia a servicios móviles bajo demanda

Christo Wilson (Northeastern University), Dave Choffnes (Northeastern University), Alan Mislove (Northeastern University)

El objetivo de nuestro proyecto es aportar más transparencia al algoritmo de fijación de precios implementado por móviles en servicios bajo demanda. El pionero en aplicar el algoritmo de fijación de precios fue Uber en forma de “surge pricing” (aumento de demanda). Mientras aplaudimos que los servicios móviles perturben sectores moribundos de la economía creemos que los datos y algoritmos que se aprovechan de estos servicios deberían ser transparentes. Fundamentalmente porqué los consumidores y proveedores no pueden tomar decisiones fundamentadas cuando los mercados son opacos. Además, los servicios black-box son vulnerables a la explotación una vez sus algoritmos se comprenden, lo que crea oportunidades para los consumidores y proveedores para manipular estos servicios de modo que no son posibles en mercados transparentes.

Ofreciendo a los usuarios feedback en búsquedas de aprendizaje personalizado

Douglas Leith (Trinity College Dublin), Alessandro Checco (Trinity College Dublin)

Actualmente se otorga poco feedback a los usuarios por parte de proveedores de búsqueda en cuanto al aprendizaje y las inferencias de preferencias personales que suceden. Cuando un motor de búsqueda deduce que una categoría publicitaria puede ser susceptible de interesar al usuario, y por lo tanto más posible de generar un click y venta, se tiende a usar esta información para seleccionar qué anuncios visualizar. Esto puede ser usado para detectar modelos de aprendizaje de búsqueda a través del análisis de cambios en la variedad de anuncios mostrados y para informar al usuario acerca de este aprendizaje. En este proyecto desarrollaremos un plugin para navegadores que ofrezca este feedback y otorgue poder al usuario a través de técnicas de análisis de datos usadas por los propios motores de búsqueda.

Transparencia de conocimiento cero: Herramientas de auditoria de seguridad para usuarios finales

Maksym Gabielkov (INRIA, Columbia University), Larissa Navarro Passos de Araujo (Columbia University), Max Tucker Da Silva (Columbia University), Augustin Chaintreau (Columbia University)

En principio, las herramientas de transparencia siguen directrices de privacidad para proteger los datos de los consumidores mientras muestran cómo estos datos son usados por otros. Pero estos objetivos a menudo no concuerdan. A modo de ejemplo, responder a preguntas como “cuál de mis correos ha hecho aparecer este anuncio” plantea al usuario el siguiente dilema: Se puede disfrutar (a ciegas) de la privacidad (relativa) ofrecida por servicios como Gmail, o por el contrario puede someter sus datos a participar en un experimento de transparencia con diversas herramientas como Xray, Adfisher, Sunlight u otras más específicas. Esto último implica que el usuario ejecute un experimento completamente por su cuenta o bien que ofrezca sus datos a una de las herramientas ejecutadas por terceros. Ambas aumentan los riesgos de privacidad puesto que los datos sensibles van a ser manipulados por partes de código, en ocasiones bajo el control de otras personas. Esto explica que las herramientas mencionadas anteriormente, y de hecho prácticamente sin ninguna excepción en la investigación por la transparencia, se ejecutan y validan a través de conjuntos de datos sintéticos que no son delicados por naturaleza.

Nuestro objetivo es definir formalmente la transparencia de conocimiento cero, para reconciliar la necesidad de estar informado y seguro en relación al uso de nuestros datos y experimentar con herramientas que ofrezcan esta protección dual. Del mismo modo que en nuestra investigación previa, nos centramos en herramientas genéricas que abordan un amplio rango de escenarios bajo los mismos conceptos subyacentes. La primera arquitectura que proponemos hace uso de correlaciones diferenciales, como las usadas en Xray para múltiples servicios, para mostrar que esta herramienta puede desarrollarse para preservar la privacidad con capas adicionales de arquitectura simple. La segunda arquitectura que concebimos es más amplia: Utiliza bancos de datos con búsquedas interactivas tipo air-cloak para resolver por separado la privacidad y transparencia. Creemos que la mayor parte de herramientas de seguridad requerirán un complemento similar y experimentar con la robustez de esta solución en escala y frente otros retos propuestos.

Ecosistema de privacidad consciente para compartir datos

Anna Monreale (Department of Computer Science, University of Pisa)

Los datos personales y sociales son una fuente importante de conocimiento útil para entender el comportamiento humano así como para desarrollar un amplio abanico de servicios para usuarios. Desafortunadamente, este tipo de datos son sensibles, ya que las actividades descritas por éstos pueden dar pie a identificar a individuos en bases de datos anónimas y potencialmente pueden revelar rasgos personales como la religión o tendencias sexuales. Por lo tanto, los proveedores de datos, antes de compartir esos datos, deben aplicar algún tipo de anonimato para disminuir los riesgos de privacidad, pero deben ser conscientes y capaces de controlar la calidad de los datos, ya que ambos factores a menudo se compensan. Este proyecto propone una infraestructura para dar apoyo a los proveedores de datos en el cálculo de riesgo de privacidad de los datos a compartir. Esta infraestructura mide tanto el riesgo de privacidad empírico (no teórico) asociado a los usuarios representados en los datos y la calidad de datos garantizada por los usuarios que no están en riesgo. Esto proporciona un mecanismo que permite la exploración de un repertorio de transformaciones de datos posibles con el objetivo de seleccionar la transformación específica que cede un importante coste de oportunidad entre la calidad de los datos y el riesgo de privacidad. El proyecto se enfoca en la movilidad de datos estudiando la efectividad práctica de la infraestructura a través de formularios de movilidad de datos requeridos por servicios basados en conocimiento específico.

Exposición y superación de filtraciones de privacidad en aplicaciones móviles usando perfiles dinámicos

Z. Morley Mao (University of Michigan)

En esta propuesta nos enfocamos en diseñar un soporte para detectar filtraciones de datos personales en el ecosistema de aplicaciones móviles a través de una aproximación innovadora usando perfiles de usuario de aplicaciones generados dinámicamente para rastrear cómo los datos personales pueden influenciar el contenido presentado a los usuarios así como descubrir la violación de políticas de privacidad. Primero analizamos como varios tipos de contenido personalizado basados en información como el comportamiento, contexto o localización, o gráficos sociales pueden potencialmente llevar a sesgos no deseados. A continuación, tomamos una aproximación semántica para traducir las preferencias de privacidad del usuario a mecanismos ejecutables basados en sintaxis. Mediante el uso de perfiles generados dinámicamente que caracterizan la personalización de contenido esperado, los usuarios pueden seleccionar un tipo de perfil que satisfaga las políticas de privacidad del usuario o bien obtener datos o acceder a servicios online mediante la recopilación de perfiles. En resumen, nuestro trabajo consiste tanto en las aproximaciones offline para generar el conocimiento de la personalización de contenido basado en perfiles relevantes y caracterizar el comportamiento relativo a la privacidad en aplicaciones móviles, así como el soporte en tiempo de ejecución para satisfacer las políticas de privacidad expresadas por el usuario.

Detectando filtraciones accidentales e intencionadas de información personal en aplicaciones web actuales

Nick Nikiforakis (Stony Brook University)

El aumento de populares servicios gratuitos online ha facilitado el aumento de un ecosistema de rastreadores de terceros y anunciantes online. La mayoría de los rastreos implica el uso de cookies y aunque otras tecnologías no exponen, directamente, la información personal identificable (PII) de los usuarios, hay investigaciones anteriores que demuestran que la filtración de PII es muy habitual. Ya sea debido a prácticas de programación pobres (p.ej.: PII-carrying, GET-submitting forms) o debido a filtración intencionada de información a menudo la información personal del usuario se encuentra en manos de terceros. En los casos que la información personal del usuario se filtra a terceros que ya usan cookies y otras tecnologías de rastreo, los rastreadores pueden identificar al usuario, por nombre, a través del navegador.

A pesar de la magnitud y gravedad del problema de filtración de información personal, actualmente hay una carencia de tecnologías que mejoren la privacidad y que puedan detectar y prevenir las filtraciones de información personal. Para restituir el control de los usuarios sobre su información personal identificable proponemos diseñar, implementar y evaluar de LeakSentry, una extensión del navegador que tiene la habilidad de detectar filtraciones tan pronto surgen y dar a los usuarios información contextual acerca de la filtración, así como darles la opción de permitir la filtración o bloquearla. Más allá del uso local de LeakSentry, los usuarios podrán optar a participar en el programa de conocimiento colectivo donde podrán aprender de las elecciones de los demás usuarios. Además, LeakSentry tendrá la habilidad de reportar la ubicación de la filtración de la información personal permitiéndonos crear un observatorio de filtraciones que puede ejercer presión en las webs pilladas con las manos en la masa, así como advertir a los usuarios que huyan de ellas.

Hacia prácticas de transparencia en la privacidad: Facilitando comparaciones de políticas de privacidad

Ali Sunyaev (Department of Information Systems, University of CologneUniversity of Cologne), Tobias Dehling (Department of Information Systems, University of Cologne)

Uno de los retos principales del diseño de políticas de privacidad es la naturaleza perversa de las mismas: en esencia las políticas de privacidad son respuestas pasadas de proveedores a futuras solicitudes de información por parte de los usuarios acerca de las prácticas de servicios online. Como resultado, las políticas de privacidad actuales presentan una gran variedad de contenidos y diseños, lo que dificulta la transparencia de datos y en particular con respecto a las comparaciones de prácticas de privacidad entre proveedores. La idea principal de esta investigación es hacer uso del etiquetado y crowdsourcing para facilitar comparaciones de políticas de privacidad en una aplicación web independiente de proveedores. Nuestra investigación es relevante para la investigación de transparencia de datos porqué pretende mejorar las herramientas predominantes que arrojan luz en el uso de datos personales en servicios online, o lo que es lo mismo, las políticas de privacidad. Redimir los beneficios ofrecidos en entornos online a la vez que se evitan los riesgos es todo un reto, pero nuestra propuesta facilita esta tarea mejorando la transparencia de las prácticas de privacidad. Ya ha habido numerosos esfuerzos por mejorar la utilidad de las políticas de privacidad que se enfocan en remodelar las políticas ofrecidas por proveedores, por ejemplo, modificando su diseño o mejorando su visualización. La innovación principal que pretende esta propuesta es no enfocarse en que los proveedores publiquen mejor sus políticas de privacidad, sino en permitir que los usuarios puedan enfrentarse mejor a las políticas de privacidad.

Mejorando la comprensión de navegadores en modo privado

Sascha Fahl (DCSec, Leibniz Universität Hannover), Yasemin Acar (DCSec, Leibniz Universität Hannover), Matthew Smith (Rheinische Friedrich-Wilhelms-Universität Bonn)

La investigación de la privacidad online es un tema candente y altamente demandado que ha ganado relevancia en la actualidad. Sin embargo, los mecanismos existentes que protegen la privacidad de los usuarios online, como TOR o el uso de conexiones VPN, son complejos, acarrean errores de ejecución y en el caso de las VPN añaden costes. Por consiguiente, su uso extendido no es aplicable al gran público. Los proveedores de navegadores han establecido recientemente modos de navegación privada que son altamente incomprendidos por los usuarios: Sobrevaloran el nivel de protección ofrecido por los servicios que pueden conllevar a comportamientos de inseguridad. Queremos estudiar la confusión de los usuarios, mejorar su comprensión y evaluar científicamente la usabilidad y aplicabilidad de servicios de privacidad mejorada como TOR.

PRIVA­SEE: PRIVA­SEE: PRIVacy Aware visual SEnsitivity Evaluator

Bruno Lepri (Fondazione Bruno Kessler), Elisa Ricci (Fondazione Bruno Kessler), Lorenzo Porzi (Fondazione Bruno Kessler)

Compartir digitalmente contenidos de nuestras vidas con los demás es cautivador y a menudo adictivo. Hoy en día 1,8 billones de fotos se comparten diariamente en las redes sociales. Estas imágenes contienen gran cantidad de información personal preparada para la explotación por parte de modelos de negocios publicitarios hechos a medida que puestos en las manos erróneas pueden llevar al desastre. En este proyecto queremos ver cómo el incremento de la consciencia de la sensibilidad de potenciales problemas derivados por datos personales puede influenciar sus decisiones acerca de qué compartir y de qué modo, así como cuánto se valoran los datos personales. Para conseguir este ambicioso objetivo queremos

(i) desarrollar una nueva metodología, aplicada a apps móviles que informe a los usuarios acerca del potencial de susceptibilidad de sus imágenes. La susceptibilidad será modelada por la explotación automática de inferencias a través de visión artificial y algoritmos de aprendizaje automático aplicados a fotos personales y metadatos asociados;

(ii) ejecutar estudios centrados en el usuario en un entorno de laboratorio en vivo para evaluar cómo los usuarios que postean comportamientos y valoran económicamente los datos personales móviles son influenciados por la consciencia de los riesgos al compartir información.

Aportando transparencia a la publicidad segmentada

Patrick Loiseau (EURECOM), Oana Goga (MPI-SWS)

La publicidad segmentada contribuye al apoyo de servicios web gratuitos. Sin embargo, también aumenta la preocupación de los usuarios, principalmente por su falta de transparencia. El objetivo de esta propuesta es incrementar la transparencia de la publicidad segmentada desde el punto de vista del usuario ofreciéndole una herramienta para que entiendan por qué está siendo público objetivo de un anuncio en particular y deducir la información que los motores de publicidad tienen de ellos.

Concretamente proponemos desarrollar un plugin para navegador que recopile los anuncios mostrados al usuario y proveerle con analíticas de los mismos.

Explorando datos personales en Databox

Hamed Haddadi (QMUL)

Nos encontramos en la fiebre del oro de los datos personales motivados por la publicidad que constituye la fuente primaria de ingresos para la mayoría de las empresas online. Dichas empresas acumulan una extensa información de datos personales de los individuos con mínimo interés por nuestra parte a pesar que somos los objetos del proceso. Esto puede causar innumerables daños: violación de la privacidad, vergüenza personal y profesional, restringir el acceso a mercados laborales o a mejores fijaciones de precio, entre otros. Hay una necesidad crítica de proveer tecnologías que permitan prácticas alternativas para que los individuos puedan participar en la recogida, manejo y consumo de sus datos personales. Estamos desarrollando Databox, un dispositivo de sistema personal (y otros servicios asociados) que recopila e intercede el acceso a datos personales permitiéndonos recuperar el control de nuestras vidas online. Esperamos que Databox sea el primer paso para re-equilibrar el poder entre nosotros, los sujetos de los datos, y las empresas que recopilan y usan estos datos.

DTL2017

Gracias a todos por participar en nuestro Programa de Becas. Ya podéis consultar los proyectos galardonados con las becas de 50.000€ y los proyectos que han obtenido una beca de viaje para asistir a las conferencias DTL 2017 de Barcelona en diciembre. Suscríbete a nuestro Newsletter para estar al día!

This website uses cookies to improve user experience. By using our website you consent to all cookies in accordance with our Cookie Policy.

OK More information