În ultimele 24 de ore Apple a făcut un anunţ important cu privire la un nou sistem de scanare a pozelor inaugurat în iOS 15. Folosind machine learning şi AI, acest sistem va scana pozele de pe iPhone-uri şi din iCloud, detectând imagini cu copii abuzaţi. Având în vedere valul de îngrijorare care a apărut online cu privire la încălcarea intimităţii utilizatorilor şi extinderea filtrelor de imagini de către state dictatoriale, Apple a luat poziţie şi a explicat cum funcţionează tehnologia.
În primul rând şansele sunt de 1 la 1 trilion ca să apară rezultate Fals-pozitive, deci să fie chemat la secţie cineva care nu are poze cu minori abuzaţi pe telefon sau în iCloud. Se pare că imaginile vor scanate pe dispozitiv şi confruntate folosind o bază de date cu materiale furnizate de Centrul Naţional Pentru Copii Răpiţi şi Exploataţi şi alte organizaţii de protecţie a copiilor.
Compania a promis că întreg sistemul e gândit având în vedere confidenţialitatea utilizatorilor. Apple nu va afla nici o informaţie despre imaginile care nu se potrivesc cu cele semnalate în baza de date. De asemenea, firma din Cupertino nu va avea acces la metadata sau orice derivat vizual din imaginile potrivite, până ce un anumit prag de potrivire e atins încât să fie anunţate autorităţile.
Tehnologia de hashing folosită aici este NeuralHash, care analizează o imagine şi apoi o converteşte într-un număr unic special. Doar o altă imagine aproape identică poate produce acelaşi număr, care nu se schimbă în funcţie de domensiunea pozei sau calitatea sa. Înainte ca un iPhone sau alt iDevice să urce o imagine în iCloud va fi creat un voucher de securitate criptografică care va coda şi rezultatul potrivirii.
Pozele sunt aprobate în iCloud în funcţie de voucher, iar dacă treci un anumit prag stabilit de sistem Apple ar voie să interpreteze conţinutul pozelor. Utilizatorii pot face apel pentru a primi contul înapoi dacă simt că au fost blocaţi pe nedrept. Toate aceste analize se fac cu pozele în "orb" folosind coduri şi sisteme automate. Aportul uman vine târziu şi doar dacă sistemul a tras un semnal de alarmă.
Experţii în securitate şi grupurile axate pe Privacy au criticat aceste planuri, afirmând că ne-am putea trezi supravegheaţi de un tool guvernamental bazat pe soluţia Apple. Firma din Cupertino va mai include în aplicaţia Messages funcţii care pot avertiza copiii şi părinţii atunci când cei mici primesc fotografii explicite. Atunci când un mesaj este flagged în Messages, poza va apărea blurată, iar cel mic şi părinţii vor primi o avertizare.
Siri şi Search vor fi actualizate cu informaţii pentru părinţii şi copiii care ajung în această situaţie. Aici organizaţiile de Privacy avertizează cu privire la altă încălcare de intimitate: scanarea de mesaje private, care e practic un backdoor. Toate practicile de mai sus vor fi puse în aplicare în SUA în prima fază.