Az Apple elhalasztja a gyermekmolesztáló képeket kutató iPhone-os szűrőprogramját

Hatalmas ellenérzés fogadta az Apple korábban bejelentett szűrőprogramját, ami ha elindul, akkor a felhasználók képgyűjteményét egy algoritmussal vizsgálva kutattak volna pedofil, gyermekbántalmazó tartalmak után az iPhone készülékeken. A személyiségi jogokkal kapcsolatos kifogások végül arra kényszerítették az almás céget, hogy meghátráljon, és elhalassza ezt a projektet.

“Az előző hónapban bejelentettük egy olyan funkció tervezetét, amelynek célja, hogy segítsen megvédeni a gyerekeket azoktól a szexuális ragadozóktól, akik telekommunikációs eszközöket használnak a megkeresésükre, kizsákmányolásukra, és melynek segítségével korlátozni lehetne a gyermekek szexuális zaklatásával kapcsolatban álló tartalmak terjedését.” – áll a vállalat pénteki közleményében. “A különböző érdekvédelmi csoportoktól, kutatóktól, ügyfelektől és másoktól kapott visszajelzések alapján azonban úgy döntöttünk, hogy az elkövetkezendő hónapokban további időt szánunk arra, hogy összegyűjtsük a felmerülő észrevételeket és javításokat eszközöljünk, mielőtt élesítenénk ezeket a kritikusan fontos gyermekbiztonsági funkciókat.”

A szűrőprogram bejelentését követően az Apple megosztotta az embereket, a gyermekekkel szembeni szexuális visszaélést kutató algoritmust kritizálók rámutattak arra, hogy a rendszer, amely képes az iCloud fiókban tárolt képeket egy adatbázissal összevetve ellenőrizni, teljesen ellentétben áll azzal az üzletpolitikával, amelyet az Apple a a felhasználók magánéletével kapcsolatban képvisel.

Igazából a rendszer nem vizsgálja be konkrétan a felhasználó fényképeit, hanem ismert digitális “ujjlenyomatokat” keres, amelyeket összevet egy gyermekmolesztálással kapcsolatos adatbázissal. Ha a rendszer elegendő képet észlel egy adott felhasználó fiókján, akkor jelez egy emberi megfigyelőnek, aki ezt követően megerősítheti a kétes tartalmakat, és szükség esetén értesítheti a hatóságokat is. Az Apple szűrőprogramjának az idén kellene élesbe lépnie, de a legújabb bejelentést követően nem egyértelmű, hogy a cupertinoi cég meddig halasztja a bevezetést.

Bármennyire is ki vannak akadva az emberek az Apple elképzelésével kapcsolatban, az általuk használt metódus teljesen bevett gyakorlatnak számít a technológiai cégek körében. Többek között a Facebook, a Dropbox, a Google, de még egy rakat más cég is rendelkezik olyan rendszerekkel, amely képesek automatikusan felismerni a saját szolgáltatásaikba feltöltött gyermekpornográf, gyermekek molesztálásával kapcsolatos anyagokat. Szép új világ vagy szükséges rossz? Ti mit gondoltok erről és a hasonló megoldásokról?

Forrás: CNBC

Szólj hozzá