Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

BERT: l'AI di Google per le ricerche in linguaggio naturale

BERT (Bidirectional Encoder Representations from Transformers) è il nuovo aggiornamento di Google per supportare le ricerche in linguaggio naturale
BERT: l'AI di Google per le ricerche in linguaggio naturale
BERT (Bidirectional Encoder Representations from Transformers) è il nuovo aggiornamento di Google per supportare le ricerche in linguaggio naturale
Link copiato negli appunti

Se pensassimo al modo in cui effettuiamo le ricerche su Google, dovremmo renderci conto che non utilizziamo veramente la nostra lingua. Per capire questo concetto, immaginiamo di voler scoprire se possiamo acquistare, in farmacia, un medicinale prescritto per un nostro conoscente. Se Google fosse un nostro amico farmacista, potremmo porre la frase "posso comprare un medicinale prescritto ad un amico al suo posto?" Tuttavia, è molto più probabile che, nella barra di ricerca di Google, opteremmo per qualcosa come "comprare medicinale prescritto qualcun altro farmacia".

Quello che succede spesso, infatti, è che le persone cercano su Google utilizzando il keyword-ese: non il linguaggio naturale che parliamo tutti giorni, bensì una versione modificate che, a nostro giudizio, dovrebbe aiutarci a migliorare i risultati della ricerca. E che in effetti, almeno finora, ha funzionato.

In un recente post pubblicato da Google, è stata annunciata l'introduzione di un nuovo algoritmo di machine learning, specificamente pensato per migliorare l'interpretazione delle frasi in linguaggio naturale da utilizzare per le query di ricerca.

Si tratta di BERT (acronimo che sta per Bidirectional Encoder Representations from Transformers), e differisce dagli algoritmi più tradizionali per la sua capacità di analizzare ogni singola parola, associandola al contesto in cui essa è immersa nella frase. In altre parole, a differenza di ciò che accade solitamente, anche preposizioni o congiunzioni come "da" o "per" avranno un peso ed incideranno nell'interpretazione del risultato della ricerca.

Secondo Google, questa miglioria sarà in grado di incrementare la qualità di almeno il 10% delle ricerche. E poiché può sembrare incredibile che qualche preposizione possa influire così tanto nelle ricerche, è Google stessa a fornire alcuni esempi significativi. L'immagine seguente ne è un esempio: sulla sinistra sono mostrati i risultati prima dell'introduzione di BERT, mentre sulla destra vi sono i risultati ottenuti dal nuovo sistema.

Supportare questo nuovo algoritmo, ovviamente, non richiede solo la sua implementazione. Tra le novità sfruttate da Google per l'introduzione di BERT, vi sono infatti le Cloud TPU (Tensor Processing Unit), componenti destinate ad applicazioni di machine learning, offerte tra l'altro come uno dei tanti servizi messi a disposizione dalla suite di Google Cloud.

BERT è stato introdotto momentaneamente solo nelle ricerche in Inglese, ma ne è già stata preannunciata la sua introduzione anche in altre lingue. È dunque lecito aspettarsi qualche novità anche in Italiano, anche se probabilmente bisognerà attendere un paio di mesi.

Ti consigliamo anche