ᲖᲝᲓᲘᲐᲥᲝᲡ ᲜᲘᲨᲜᲘᲡ ᲐᲜᲐᲖᲦᲐᲣᲠᲔᲑᲐ
ᲜᲘᲕᲗᲘᲔᲠᲔᲑᲔᲑᲘ C ᲪᲜᲝᲑᲘᲚᲘ ᲡᲐᲮᲔᲔᲑᲘ

ᲨᲔᲘᲢᲧᲕᲔᲗ ᲗᲐᲕᲡᲔᲑᲐᲓᲝᲑᲐ ᲖᲝᲓᲘᲐᲥᲝᲡ ᲜᲘᲨᲜᲘᲗ

განმარტა: რატომ აყოვნებს Apple თავის პროგრამულ უზრუნველყოფას, რომელიც სკანირებს ბავშვზე ძალადობის ფოტოებს

მიუხედავად იმისა, რომ ამ ნაბიჯს მიესალმებიან ბავშვთა დაცვის სააგენტოები, ციფრული კონფიდენციალურობის დამცველები და ინდუსტრიის თანატოლები, ამაღლებენ წითელ დროშებს, რაც მიუთითებს იმაზე, რომ ტექნოლოგიას შეიძლება ჰქონდეს ფართო დაფუძნებული შედეგები მომხმარებლის კონფიდენციალურობაზე.

ამ ფაილის ფოტოში Apple-ის ლოგო განათებულია მაღაზიაში, მიუნხენის ცენტრში, გერმანია (AP)

კონფიდენციალურობის დამცველებისა და ინდუსტრიის თანატოლების კრიტიკის შემდეგ, Apple-მა გადადო თავისი პროგრამული უზრუნველყოფის გაშვება, რომელიც ბავშვზე ძალადობის ამსახველი ფოტოების აღმოჩენა აიფონებზე. პროგრამა გასულ თვეში გამოცხადდა და მისი გაშვება აშშ-ში ამ წლის ბოლოს იყო დაგეგმილი.







რა არის Apple-ის პროგრამული უზრუნველყოფა და როგორ იმუშავებდა იგი?

გასულ თვეში Apple-მა განაცხადა, რომ გამოიმუშავებს ორმხრივ მექანიზმს, რომელიც ასკანირებს ფოტოებს მის მოწყობილობებზე, რათა შეამოწმოს კონტენტი, რომელიც შეიძლება კლასიფიცირებული იყოს როგორც ბავშვთა სექსუალური ძალადობის მასალა (CSAM). როგორც მექანიზმის ნაწილი, Apple-ის ხელსაწყო neuralMatch ამოწმებს ფოტოებს, სანამ ისინი აიტვირთება iCloud-ში - მის ღრუბლოვან საცავის სერვისში - და შეისწავლის მის ბოლომდე დაშიფრულ iMessage აპში გაგზავნილი შეტყობინებების შინაარსს. Messages აპი გამოიყენებს მოწყობილობაზე მანქანურ სწავლებას, რათა გააფრთხილოს მგრძნობიარე შინაარსის შესახებ, ხოლო პირადი კომუნიკაციები Apple-ისთვის წაუკითხავი არ შეინარჩუნოს, განაცხადა კომპანიამ.

neuralMatch ადარებს სურათებს ბავშვებზე ძალადობის სურათების მონაცემთა ბაზასთან და როდესაც დროშა გამოჩნდება, Apple-ის პერსონალი ხელით განიხილავს სურათებს. ბავშვზე ძალადობის დადასტურების შემდეგ, ამერიკის შეერთებული შტატების დაკარგული და ექსპლუატირებული ბავშვების ეროვნული ცენტრი (NCMEC) ეცნობება.



რა იყო შეშფოთება?

მიუხედავად იმისა, რომ ამ ნაბიჯს მიესალმებიან ბავშვთა დაცვის სააგენტოები, ციფრული კონფიდენციალურობის დამცველები და ინდუსტრიის თანატოლები, ამაღლებენ წითელ დროშებს, რაც მიუთითებს იმაზე, რომ ტექნოლოგიას შეიძლება ჰქონდეს ფართო დაფუძნებული შედეგები მომხმარებლის კონფიდენციალურობაზე. ითვლება, რომ თითქმის შეუძლებელია კლიენტის მხრიდან სკანირების სისტემის შექმნა, რომელიც გამოიყენება მხოლოდ ბავშვების მიერ გაგზავნილი ან მიღებული სექსუალური სურათებისთვის, ასეთი პროგრამული უზრუნველყოფის სხვა მიზნებისთვის დამუშავების გარეშე. განცხადებამ კიდევ ერთხელ გაამახვილა ყურადღება მთავრობებსა და სამართალდამცავ ორგანოებზე, რომლებიც ეძებენ უკანა კარს დაშიფრული სერვისებისთვის. უილ კატკარტმა, WhatsApp-ის დაშიფრული შეტყობინებების სერვისის ხელმძღვანელმა, თქვა: ეს არის Apple-ის მიერ შექმნილი და მართული სათვალთვალო სისტემა, რომელიც ძალიან მარტივად შეიძლება გამოყენებულ იქნას პირადი შინაარსის სკანირებისთვის ყველაფრისთვის, რასაც ისინი ან მთავრობა გადაწყვეტს, რომ გააკონტროლოს. ქვეყნებს, სადაც iPhone-ები იყიდება, ექნებათ განსხვავებული განმარტებები იმის შესახებ, თუ რა არის მისაღები.

ასევე განმარტებაში| თუ შემდეგ iPhone-ს აქვს სატელიტური კავშირი, ეს არის ტექნოლოგია Apple-ს გამოიყენებს

რატომ დაიხია Apple უკან?

განცხადებაში Apple-მა განაცხადა, რომ მეტი დრო დასჭირდება გამოხმაურების შეგროვებას და ბავშვის უსაფრთხოების შემოთავაზებული ფუნქციების გაუმჯობესებას სისტემის კონფიდენციალურობისა და სხვა მიზეზების გამო, როგორც კომპანიის შიგნით, ასევე მის ფარგლებს გარეთ.



კლიენტების, ადვოკატირების ჯგუფების, მკვლევარების და სხვების გამოხმაურებაზე დაყრდნობით, ჩვენ გადავწყვიტეთ, რომ მომდევნო თვეებში დამატებითი დრო დაგვეხარჯა, რათა შევაგროვოთ ინფორმაცია და გავაუმჯობესოთ ბავშვის უსაფრთხოების ამ კრიტიკულად მნიშვნელოვანი მახასიათებლების გამოქვეყნებამდე, ნათქვამია მასში.

Reuters-ის ცნობით, Apple კვირების განმავლობაში თამაშობდა გეგმის დაცვას და უკვე შესთავაზა მთელი რიგი ახსნა-განმარტებები და დოკუმენტები იმის დასადასტურებლად, რომ ყალბი აღმოჩენის რისკი დაბალი იყო.



ბიულეტენი| დააწკაპუნეთ, რომ მიიღოთ დღის საუკეთესო ახსნა-განმარტებები თქვენს შემოსულებში

ᲒᲐᲣᲖᲘᲐᲠᲔᲗ ᲗᲥᲕᲔᲜᲡ ᲛᲔᲒᲝᲑᲠᲔᲑᲡ: