iOSMachine LearningSiri

Apple spiega come fa Siri a comprendere meglio nel luogo dove ci troviamo

By 11 agosto 2018 No Comments

Il miglioramento del riconoscimento vocale di Siri passa da diversi fattori. L’uso del machine learning, per addestrare il sistema automaticamente, aiuta molto ad aumentare il tasso di comprensione della voce dell’utente.

Un’aumento di accuratezza che abbiamo visto, qualche tempo fa, essere passato dal 66,1% al 78,5%. A tal proposito la società ha condiviso un documento che spiega uno dei metodi utilizzati. In pratica Siri usa il Geo-LM: un sistema che aumenta l’accuratezza su alcune parole in base al luogo in cui ci troviamo.

Il sistema utilizza dei database forniti dal Census Bureau americano. Non sappiamo se venga utilizzato anche fuori dagli Stati Uniti, come in Italia. Quando si fa una domanda a Siri il sistema comprende il luogo dove ci si trova, per esempio un ristorante o un museo, e aumenta l’accuratezza verso determinati gruppi di parole.

Questo perchè statisticamente potremmo avere l’esigenza di chiedere informazioni correlate al luogo dove ci troviamo. Il Geo-LM consente, così, di avere un assistente più preciso. Se volete approfondire l’argomento trovate tutte le specifiche nel blog sul machine learning di Apple.


Source link

Lascia un commento

x

Utilizziamo i cookie per offrirti la migliore esperienza online. Accettando l'accettazione dei cookie in conformità con la nostra politica sui cookie.