Siri è stata aggiornata per rispondere più consistentemente ed appropriatamente alle richieste relative agli abusi e alle aggressioni. La notizia è stata confermata da Apple ad ABC News.
A metà Marzo, Jama Internal Medicine ha pubblicato un articolo dove sottolineava come gli assistenti virtuali come Siri, Cortana, S Voice e Google Now, dessero risposte inconsistenti a frasi relative agli abusi o alle aggressioni sessuali. Secondo quanto dichiarato da ABC News, dopo la pubblicazione dell’articolo, Apple si è messa in contatto con il Rape, Abuse and Incest National Network ed ha rilasciato l’aggiornamento per Siri solamente qualche giorno dopo.
Le risposte di Siri ora sono sicuramente più accurate. A quanto pare, davanti ad una frase simile, l’assistente virtuale consiglierà di chiedere aiuto, indicando anche l’ente al quale rivolgersi.
Gli assistenti virtuali stanno entrando sempre di più nella vita di tutti i giorni degli utenti ed ora sono inclusi in quasi tutti gli smartphones presenti sul mercato. La capacità di rispondere in maniera gentile ed attendibile a richieste che indicano pericolo e crisi, è una parte critica nel cercare di mantenere robusta ed utile un’intelligenza artificiale.
Questa non è la prima volta che Siri viene aggiornata per rispondere in maniera migliore a frasi come queste. Nel 2013, ABC News riportò che l’assistente virtuale aveva ricevuto un aggiornamento per rispondere a frasi potenzialmente suicide consigliando di rivolgersi agli enti relativi a questi casi.
Avete qualcosa da aggiungere a questa notizia? Rispondete utilizzando il campo per i commenti.