“Conversazioni medico-paziente, affari, accordi criminali, incontri a sfondo sesuale, etc.,” questo quanto ascoltato da una fonte anonima nelle registrazioni di Apple Siri. Secondo la fonte, Apple avrebbe appaltato l'analisi delle registrazioni per migliorare la qualità di Siri.

Apple conferma, ma precisa che si tratta di dati opportunamente anonimizzati—contrariamente a quanto dice la fonte.

Non mi sorprende. Così come non mi ha sorpreso la stessa notizia su Amazon Alexa e Google Assistant/Home.

Sono sistemi basati su intelligenza artificiale, quindi è normale che ogni tanto abbiano bisogno essere (ri)addestrati per migliorarne la precisione e per evitare che la loro qualità degradi, per un effetto naturale di questo tipo di algoritmi.

Si può evitare? Sì: dovremmo farlo noi. Avremmo tempo? Boh...

Aggiornamento (05/09/2019): Apple chiede venia e fa sapere che d'ora in poi gli utenti dovranno dare consenso esplicito se vorranno che le loro conversazioni possano essere inserite nel campione di quelle potenzialmente ascoltate: https://www.theguardian.com/technology/2019/aug/29/apple-apologises-listen-siri-recordings