Collaborative Filtering y How Not To Sort By Average Rating

Internet es una fuente inmensa de conocimiento y por lo tanto esta llena de contenido al cual podemos acceder casi en su totalidad libremente con claras consecuencias positivas. Sin embargo, dada la enorme cantidad de contenido que existe, y se está generando constantemente, es necesario la utilización de algoritmos como el de Collaborative Filtering para poder recibir contenido que sea interesante y además de calidad. En este comentario quiero enfocarme sin embargo en los efectos más negativos que puede tenerla aplicación de algoritmos parecidos al de Collaborative Filtering sobre el contenido que recibimos en el día a día.

Este algoritmo busca predecir lo más precisamente el rating que le daría yo a cierto contenido basado en la heurística, de que una persona que en el pasado ha estado de acuerdo conmigo en el rating de cierto contenido opinará de forma similar a mi en el futuro.

El problema que se introduce es que esta heurística permite predecir mi recepción a cierto contenido, puede tener un aproximado de que tan bueno o malo voy a encontrar un video, pero no permite diferenciar distintas dimensiones de esta percepción. Estas dimensiones podrían ser calidad percibida, intereses, que tan de acuerdo estoy con lo que se plantea, etc. Por ejemplo, me puede no gustar un video el cual el tema me interesa y es de buena calidad, pero tiene una posición política opuesta a la mía. De esta manera no se puede discriminar si cierto contenido es de mala calidad o tiene una opinión política muy fuerte o es irrelevante.

¿Y por qué creo que esto es importante?

Dado que la mayoría del contenido que recibimos día a día es pasado por este tipo de filtros, al final gran parte del contenido que consumimos termina siendo parcial a favor de nuestras creencias. Esto lleva a una reafirmación constante, por más errados (o no) que estemos en favor de nuestras creencias. Y se nos priva de opiniones distintas que pueden ser muy beneficiosas para nosotros y la percepción que tenemos del mundo. Una persona con cierta posición política, recibirá contenido solo reafirmando esta posición. Dado que por como esta construido este algoritmo, considerando la opinión de personas que piensan similar a mi, es poco probable que se me recomiende contenido de una distinta posición sin importar la calidad de este. Y precisamente es por eso que sería útil tener otra dimensión de predicción como lo es por ejemplo calidad percibida, de esta manera poder hacer recomendaciones de contenido variado en posición política pero acotados en temas de interés y calidad percibida, por ejemplo.

Para el caso de el método de ordenamiento recomendado por Evan Miller, creo que el problema es similar. Tampoco hay una percepción de calidad, y por lo tanto contenido con opiniones fuertes y polémicos, tenderán a quedar mas rezagados sin importar su importancia o calidad, dado que de seguro contaran con una proporción importante de votos negativos.

One clap, two clap, three clap, forty?

By clapping more or less, you can signal to us which stories really stand out.