Un BERT per capirci meglio

Il nuovo algoritmo messo a punto da Google sfrutta l’intelligenza artificiale per riuscire a rispondere sempre più puntualmente agli intenti di ricerca delle persone.

Latoquadrato
Latoquadrato
2 min readNov 4, 2019

--

La prima cosa che ci è venuta in mente sentendo parlare di BERT è stato il personaggio dello spazzacamino reso celebre da Dick Van Dyke in Mary Poppins (1964) 🤣.

L’amico che vorremmo incontrare tutti per rallegrare le nostre giornate digitali, soprattutto un personaggio che sa immaginare. Proprio quello che cerca di fare Google: immaginare quello che gli stiamo chiedendo a ogni nostra ricerca.

L’acronimo BERT sta per Bidirectional Encoder Representations from Transformers, ossia una tecnica basata sulla rete neurale per l’elaborazione del linguaggio naturale (NPL) sviluppata da Google l’anno scorso e ora in opera nella Google Search in lingua inglese — e a breve anche per altre località e lingue in tutto il mondo.

In pratica, BERT riesce a creare modelli che elaborano le parole in relazione a tutte le altre parole di una frase, riuscendo a fare quello che facciamo noi quando leggiamo una frase: dare valore agli elementi connettivi (a, con, per, no, ecc.) che definiscono il contesto della frase.

In questo modo possiamo fare una ricerca in modo naturale, perché con BERT il motore di Google rileva l’importanza del contesto di ogni parola in relazione a quelle che le stanno intorno.

Per chi vuole approfondire ecco il post sul blog di Google 👉 https://www.blog.google/products/search/search-language-understanding-bert/

--

--