W4: Content-based artwork recommendation: integrating painting metadata with neural and manually-engineered visual features.

Tamara Alexandra Cucumides
tam_recomienda
Published in
3 min readSep 9, 2019

Esta es mi critica a Content-based artwork recommendation: integrating painting metadata with neural and manually-engineered visual features de Messina, P., Dominguez, V., Parra, D., Trattner, C., & Soto, A. (2019).

¿De qué se trata el paper?

El objetivo del paper es mostrar y comparar distintas representaciones de imágenes para realizar recomendación basada en contenido de piezas de arte únicas. La idea, se comenta en las conclusiones del trabajo, más que desarrollar técnicas nuevas, se basa en comparar las ya existentes (representaciones obtenidas de redes neuronales profundas, atributos visuales, atributos desarrollados “manualmente”, etiquetas como el nombre del artista y etiquetas dadas por expertos)

Comentarios y críticas

Como primer comentario, me gustaría destacar la estructura del documento: es muy ordenado y explícito con su intención ciéntifica, cosa que no habíamos visto en los papers comentados hasta ahora. Parece seguir de manera muy cercana la estructura que se plantea en el paper Evaluating recommendation systems de Guy, S., & Gunawardana, A.. (2011) que comenté en el siguiente link: https://medium.com/tam-recomienda/w3-evaluating-recommendation-systems-a8ca1d2c9ca9.

Por otra parte, me parece curioso que a través de todo el paper siempre se evidenció que existe una diferencia importante entre estar tratando con imágenes regulares versus obras de arte. No me queda claro si esta diferencia es solamente porque las obras de arte son únicas (one-of-a-kind) o hay alguna otra diferencia inherente. Si es la segunda opción, considero que haber usado redes neuronales pre-entrenadas (supongo que con ImageNet) no parece muy adecuado. Si es solo por la unicidad de las obras de arte, entonces retiro este comentario.

Otro punto es que me parece un poco pesimista la afirmación de que porque la naturaleza del problema es “one-of-a-kind”, entonces no pueden tener ratings y/o feedback implícito. Estoy pensando por ejemplo en compras que no fueron concretadas (se puso la obra en el carrito de compras, pero luego no se compró), la existencia de listas de favoritos y/o wishlist podría revertir esto. De hecho, actualmente UGallery posee la opción de añadir a favoritos, desconozco si esto existía al momento del estudio, pero parece bastante útil para hacer recomendación

Encuentro excelente que hayan llevado a cabo una evaluación online y que no se hayan quedado con los resultados offline (que eran bastante poco esperanzadores por decirlo menos). De igual manera, considero correcto que hayan sido austeros con la discusión de los buenos resultados de la evaluación online. Sin embargo, respecto de la última tengo un reparo: me parece que hizo falta que incluyeran otro algoritmo de referencia además de FA (artista favorito) puesto que FA es demasiado obvio para una persona experta en arte (además no me queda claro que si a un experto le preguntan por sus 10 obras favoritas, realmente esto sea significado para inferir su artista favorito, puesto que creo que ellos, al ser conocedores, tienen un repertorio mucho más amplio de donde elegir sus obras favoritas)

Otra cosa que me hizo falta fue ver un caso de recomendaciones reales, con las imágenes de cuadros consumidos y cuadros recomendados, para ver si se podía generar una intuición de qué estaba tomando en cuenta los algoritmos para recomendar y así entregar interpretabilidad a los modelos

Como comentario general, me gustó mucho el estudio: es muy transparente en sus alcances y líneas de investigación futura: es un paper muy completo, tanto en explicación de metodología como en reporte de resultados. Utiliza técnicas actuales y se proyecta como una muy buena opción para seguir desarrollando

--

--