PDF de programación - Motores de Búsqueda Web - Tarea Tema 4: Adversarial IR

Imágen de pdf Motores de Búsqueda Web - Tarea Tema 4: Adversarial IR

Motores de Búsqueda Web - Tarea Tema 4: Adversarial IRgráfica de visualizaciones

Publicado el 5 de Febrero del 2017
695 visualizaciones desde el 5 de Febrero del 2017
496,4 KB
6 paginas
Creado hace 13a (25/04/2011)
Motores de Búsqueda Web
Tarea Tema 4: Adversarial IR



José Alberto Benítez Andrades

71454586A

Motores de Búsqueda Web
Máster en Lenguajes y Sistemas Informáticos - Tecnologías del Lenguaje en la Web
UNED
20/02/2011

Motores de Búsqueda Web – Tarea: Adversarial IR José Alberto Benítez Andrades

20 de febrero de 2011



Tarea Tema 4: Adversarial IR

Enunciado del ejercicio
El tema al que los grandes buscadores dedican más esfuerzos en la actualidad es a

combatir el "spamdexing", es decir, el uso de técnicas para manipular los resultados de los
buscadores. Se conoce como "adversarial IR" el campo, dentro de la recuperación de
información, que trata sobre cómo combatir el spamdexing, es decir, cómo crear algoritmos de
ranking que sean robustos a los intentos de manipulación.

Echa un vistazo a los proceedings de la última edición del AIRWeb (congreso sobre


adversarial IR) y comenta cuáles son las principales líneas de trabajo en este tema.



La URL del congreso es: http://airweb.cse.lehigh.edu/

Resolución

Looking into the Past to Better Classify Web Spam — Na Dai, Brian D. Davison and Xiaoguang
Qi


Técnicas de spamming web destinadas a alcanzar una clasificación inmerecida en los
resultados de búsqueda. La investigación ha sido realizada ampliamente en la identificación de
spam tal y neutralizar su influencia. Sin embargo, los trabajos existentes de detección de spam
solamente tienen en cuenta la información actual. Se argumenta que la información histórica
de páginas web también puede ser importante en la clasificación de spam. En este trabajo,
utilizaron sus autores funciones de contenido de las versiones históricas de páginas web para
mejorar la clasificación de spam. Utilizaron técnicas de aprendizaje supervisadas para
combinar clasificadores basados en el contenido de la página actual con clasificadores basados
en las características temporales. Los experimentos llevaron a que su enfoque mejora la
clasificación de spam mejorando el rendimiento medio en un 30% en comparación con un
clasificador de referencia, que sólo tiene en cuenta el contenido de la página actual.

A Study of Link Farm Distribution and Evolution Using a Time Series of Web Snapshots —
Young-joo Chung, Masashi Toyoda and Masaru Kitsuregawa


En este trabajo se estudia la estructura global de spam basada en el enlace y su
evolución, que sería de gran ayuda para el desarrollo de herramientas de análisis robustas y de
investigación de spam Web como una actividad social en el espacio cibernético. En primer
lugar, el uso de componentes fuertemente conectados (SCC) para separar la descomposición
en muchas granjas de enlace de la mayor SCC, por lo que se llama el núcleo. Se muestra que



Página 1



Motores de Búsqueda Web – Tarea: Adversarial IR José Alberto Benítez Andrades

20 de febrero de 2011


las explotaciones más densas en el núcleo de enlace se puede extraer por el nodo de filtrado y
la aplicación recursiva de descomposición SCC hasta la médula. Sorprendentemente, podemos
encontrar nuevas granjas de enlaces grandes en cada iteración y esta tendencia se mantiene
hasta por lo menos 10 iteraciones. Además, sus autores midieron la “spamicidad” de tales
granjas de enlaces. A continuación, la evolución de las granjas de enlaces se examinaron más
de dos años. Los resultados muestran que casi todas las granjas de enlaces grandes ya no
crecen, mientras que algunos de ellos se reducen, y muchas granjas de enlaces grandes se
crean en un año.

Web Spam Filtering in Internet Archives — Miklós Erdélyi, András A. Benczúr, Julien Masanes
and Dávid Siklósi

Mientras que el spam Web está dirigido por el alto valor comercial de los motores de

búsqueda, se puede observar el deterioro de la calidad de los archivos web y el desperdicio de
recursos como efecto secundario. Hasta ahora las tecnologías de filtrado Web de spam se usan
muy poco en los archivos Web, pero tiene un gran futuro, como se indica en una encuesta con
respuestas de más de 20 instituciones en todo el mundo. Estos archivos suelen operar en un
nivel modesto de presupuesto que prohíbe la operación de spam independiente de filtrado
Web, pero los esfuerzos de colaboración podrían conducir a una solución de alta calidad para
ellos. En este artículo se ilustran las necesidades del filtrado de spam, las oportunidades y los
bloqueadores de los archivos de Internet a través de análisis de varias instantáneas de rastreo
y la dificultad de migrar a través de diferentes modelos de filtros se arrastra a través del
ejemplo de los 13. Instantáneas del Reino Unido realizado por UbiCrawler que incluyen
webspam-UK2006 y webspam- UK2007. Análisis de contenido.

Web Spam Identification Through Language Model Analysis — Juan Martinez-Romo and
Lourdes Araujo


En este trabajo se aplica un enfoque de modelo de la lengua a diferentes fuentes de
información extraída de una página Web, con el fin de proporcionar indicadores de alta calidad
en la detección de Spam Web. Dos páginas unidas por un enlace que debe ser relacionado con
el tópico, a pesar de que se tratara de una relación contextual débil. Por este motivo, sus
autores han analizado las diferentes fuentes de información de una página Web que pertenece
al contexto de una relación y han aplicado la divergencia de Kullback-Leibler de ellos para
caracterizar la relación entre dos páginas enlazadas. Por otra parte, se combinan algunas de
estas fuentes de información con el fin de obtener modelos de lenguaje más rico. Dada la
diferente naturaleza de los enlaces internos y externos, en nuestro estudio también se
distinguen estos tipos de vínculos conseguir una mejora significativa en las tareas de
clasificación. El resultado es un sistema que mejora la detección de spam en la web de dos
grandes conjuntos de datos y el público como webspam-UK2006 y webspam UK2007.



Página 2



Motores de Búsqueda Web – Tarea: Adversarial IR José Alberto Benítez Andrades

20 de febrero de 2011


An Empirical Study on Selective Sampling in Active Learning for Splog Detection — Taichi
Katayama, Takehito Utsuro, Yuuki Sato, Takayuki Yoshinaka, Yasuhide Kawada and Tomohiro
Fukuhara


Este trabajo estudia cómo reducir la cantidad de supervisión humana para la
identificación de splogs / blogs auténticos en el contexto de la continua actualización de los
datos splog establece año tras año. A raíz de los trabajos previos en el aprendizaje activo, en
contra de la tarea de splog / detección blog auténtico, este trabajo examina empíricamente
varias estrategias para el muestreo selectivo en el aprendizaje activo de máquinas de soporte
vectorial (SVM). Como una medida de confianza del MSV aprendizaje, cuentan con la distancia
del hiperplano que separa a cada instancia de prueba, que han sido bien estudiados en el
aprendizaje activo para la clasificación de texto. A diferencia de los resultados de la aplicación
de aprendizaje activo a las tareas de clasificación de textos, en la tarea de splog / detección
auténtico blog de este trabajo, no es el caso de que la adición de al menos las muestras de
confianza en un mejor rendimiento.

Linked Latent Dirichlet Allocation in Web Spam Filtering — István Bíró, Dávid Siklósi, Jácint
Szabó and András Benczúr

Latent Dirichlet allocation (LDA) (Blei, Ng, Jordan 2003) es un modelo estadístico

completamente generativo del lenguaje sobre el contenido y los temas de un corpus de
documentos. En este artículo se aplicará una extensión de LDA para la clasificación web, correo
no deseado. La vinculación técnica LDA lleva también la vinculación en cuenta: los temas se
propagan a lo largo de enlaces de tal manera que el documento vinculado influye
directamente en las palabras en el documento de vinculación. El modelo de deducir LDA se
puede aplicar para la clasificación como la reducción de dimensionalidad de manera similar a
la indexación semántica latente. Probamos vinculados LDA en el spam Web-UK2007 corpus.
Mediante el uso de clasificador BayesNet, en términos de las AUC de la clasificación,
conseguimos 3% de mejoría sobre plano LDA con BayesNet, y 8% con respecto a las
características de enlace público con C4.5. La adición de este método para un diario de
probabilidades de combinación basada en la estrecha relación y los resultados de referencia el
contenido de los clasificadores en una mejora del 3% en el AUC. Nuestro método incluso
mejora ligeramente en el mejor Web Spam Challenge 2008 resultado.Social Spam

Social Spam Detection — Benjamin Markines, Ciro Cattuto and Filippo Menczer


La popularidad de los sitios bookmarking sociales los ha convertido en un blanco
perfecto para los spammers. Muchos de estos sistemas requieren un tiempo de un
administrador y la energía para filtrar de forma manual o eliminar el spam. Aquí hablan de las
motivaciones de spam social, y presentan un estudio de detección automática de los
spammers en un sistema de etiquetado social. Se identifican y analizan seis características
diferentes que se ocupan de diversas propiedades de spam sociales, encontrando que cada
una de estas características proporciona una señal de ayuda a
  • Links de descarga
http://lwp-l.com/pdf2282

Comentarios de: Motores de Búsqueda Web - Tarea Tema 4: Adversarial IR (0)


No hay comentarios
 

Comentar...

Nombre
Correo (no se visualiza en la web)
Valoración
Comentarios...
CerrarCerrar
CerrarCerrar
Cerrar

Tienes que ser un usuario registrado para poder insertar imágenes, archivos y/o videos.

Puedes registrarte o validarte desde aquí.

Codigo
Negrita
Subrayado
Tachado
Cursiva
Insertar enlace
Imagen externa
Emoticon
Tabular
Centrar
Titulo
Linea
Disminuir
Aumentar
Vista preliminar
sonreir
dientes
lengua
guiño
enfadado
confundido
llorar
avergonzado
sorprendido
triste
sol
estrella
jarra
camara
taza de cafe
email
beso
bombilla
amor
mal
bien
Es necesario revisar y aceptar las políticas de privacidad