Системот CSAM на Apple беше измамен, но компанијата има две заштитни мерки

Ажурирање: Apple спомна втора проверка на серверот, а професионална компанија за компјутерска визија наведе можност за тоа што може да се опише во „Како може да функционира втората проверка“ подолу.
Откако програмерите ги променија неговите делови, раната верзија на системот Apple CSAM беше ефикасно измамена за да означи невина слика.Сепак, Apple изјави дека има дополнителни заштитни мерки за да спречи тоа да се случи во реалниот живот.
Најновиот развој се случи откако алгоритмот NeuralHash беше објавен на веб-страницата за развивачи со отворен код GitHub, секој може да експериментира со него…
Сите системи CSAM работат со увоз на база на податоци за познати материјали за сексуална злоупотреба на деца од организации како што е Националниот центар за исчезнати и експлоатирани деца (NCMEC).Базата на податоци е обезбедена во форма на хеш или дигитални отпечатоци од слики.
Иако повеќето технолошки гиганти скенираат фотографии поставени во облакот, Apple го користи алгоритмот NeuralHash на iPhone на клиентот за да генерира хаш вредност на зачуваната фотографија, а потоа ја споредува со преземената копија на вредноста на хашот CSAM.
Вчера, програмер тврдеше дека го променил алгоритмот на Apple и го објавил кодот на GitHub - ова тврдење беше ефективно потврдено од Apple.
Во рок од неколку часа по објавувањето на GitHib, истражувачите успешно го искористија алгоритмот за да создадат намерна лажна позитива - две сосема различни слики кои ја генерираат истата вредност на хашот.Ова се нарекува судир.
За такви системи, секогаш постои ризик од судири, бидејќи хашот е секако многу поедноставен приказ на сликата, но изненадува тоа што некој може да ја генерира сликата толку брзо.
Намерниот судир овде е само доказ за концепт.Програмерите немаат пристап до базата на податоци за хаш CSAM, што би барало создавање на лажни позитиви во системот во реално време, но докажува дека нападите со судир во принцип се релативно лесни.
Apple ефикасно потврди дека алгоритмот е основа на сопствениот систем, но на матичната плоча и кажа дека ова не е конечната верзија.Компанијата исто така изјави дека никогаш немала намера да ја чува во тајност.
Apple во е-пошта му соопшти на Motherboard дека верзијата што ја анализирал корисникот на GitHub е генеричка верзија, а не конечна верзија што се користи за откривање на iCloud Photo CSAM.Apple соопшти дека исто така го открил алгоритмот.
„Алгоритмот NeuralHash [...] е дел од потпишаниот код на оперативниот систем [и] безбедносните истражувачи можат да потврдат дали неговото однесување е во согласност со описот“, пишува во документ на Apple.
Компанијата продолжи да рече дека има уште два чекори: водење секундарен (таен) систем за совпаѓање на сопствен сервер и рачен преглед.
Apple исто така изјави дека откако корисниците ќе го поминат прагот од 30 натпревари, вториот нејавен алгоритам што работи на серверите на Apple ќе ги проверува резултатите.
„Овој независен хаш е избран за да се отфрли можноста погрешниот NeuralHash да се совпаѓа со шифрираната база на податоци CSAM на уредот поради противнички пречки на слики што не се CSAM и да го надмине прагот за совпаѓање.
Бред Двајер од Roboflow најде начин лесно да направи разлика помеѓу двете слики објавени како доказ за концепт за напад од судир.
Јас сум љубопитен како изгледаат овие слики во CLIP на сличен, но различен екстрактор на нервни карактеристики OpenAI.CLIP работи слично како NeuralHash;зема слика и користи невронска мрежа за да генерира збир на вектори на карактеристики кои се пресликуваат на содржината на сликата.
Но, мрежата на OpenAI е поинаква.Тоа е општ модел кој може да мапира помеѓу слики и текст.Ова значи дека можеме да го користиме за да извлечеме информации за слики разбирливи за човекот.
Ги поминав двете слики од судир погоре преку CLIP за да видам дали и тој е измамен.Краткиот одговор е: не.Ова значи дека Apple треба да може да примени втора мрежа за извлекување карактеристики (како што е CLIP) на откриените CSAM слики за да утврди дали се вистински или лажни.Многу потешко е да се генерираат слики кои измамуваат две мрежи во исто време.
Конечно, како што беше споменато претходно, сликите се прегледуваат рачно за да се потврди дека се CSAM.
Истражувач за безбедност рече дека единствениот реален ризик е дека секој што сака да го изнервира Apple може да обезбеди лажни позитиви на човечките рецензенти.
„Apple всушност го дизајнираше овој систем, така што функцијата за хаш не треба да се чува во тајност, бидејќи единственото нешто што можете да го направите со „не-CSAM како CSAM“ е да го нервирате тимот за одговор на Apple со некои непотребни слики додека не имплементираат филтри за елиминирање анализа Оние ѓубре во нафтоводот се лажно позитивни“, изјави Николас Вивер, постар истражувач од Институтот за меѓународна компјутерска наука на Универзитетот во Калифорнија, Беркли, за Motherboard во онлајн разговор.
Приватноста е прашање на зголемена загриженост во денешниот свет.Следете ги сите извештаи поврзани со приватноста, безбедноста итн. во нашите упатства.
Бен Лавџој е британски технички писател и уредник на ЕУ за 9to5Mac.Тој е познат по своите колумни и статии од дневници, истражувајќи го своето искуство со производите на Apple со текот на времето за да добие посеопфатни критики.Пишува и романи, има два технички трилера, неколку кратки научно-фантастични филмови и ром-ком!


Време на објавување: 20.08.2021