ᲖᲝᲓᲘᲐᲥᲝᲡ ᲜᲘᲨᲜᲘᲡ ᲐᲜᲐᲖᲦᲐᲣᲠᲔᲑᲐ
ᲜᲘᲕᲗᲘᲔᲠᲔᲑᲔᲑᲘ C ᲪᲜᲝᲑᲘᲚᲘ ᲡᲐᲮᲔᲔᲑᲘ

ᲨᲔᲘᲢᲧᲕᲔᲗ ᲗᲐᲕᲡᲔᲑᲐᲓᲝᲑᲐ ᲖᲝᲓᲘᲐᲥᲝᲡ ᲜᲘᲨᲜᲘᲗ

განმარტა: როგორ დაასკანირებს Apple მოწყობილობებზე ბავშვების ექსპლუატაციის სურათებს და რატომ ამაღლებს წარბებს

სავარაუდოდ, თავდაპირველად შეერთებულ შტატებში გამოვა, ფუნქციები მოიცავს ახალი ტექნოლოგიის გამოყენებას CSAM-ის ონლაინ გავრცელების შეზღუდვის მიზნით, განსაკუთრებით Apple პლატფორმის საშუალებით.

ბლოგ-პოსტში Apple-მა განმარტა, რომ ის გამოიყენებს კრიპტოგრაფიულ აპლიკაციებს iOS-ისა და iPadOS-ის მეშვეობით iCloud Photo-ზე შენახული ცნობილი CSAM სურათების შესატყვისად.

ამის შესახებ Apple-მა გამოაცხადა პროგრამული უზრუნველყოფის განახლებები ამ წლის ბოლოს მოუტანს ახალ ფუნქციებს ეს ხელს შეუწყობს ბავშვების დაცვას მტაცებლებისგან, რომლებიც იყენებენ საკომუნიკაციო ინსტრუმენტებს მათი გადაბირებისა და ექსპლუატაციის მიზნით, და შეზღუდავს ბავშვთა სექსუალური ძალადობის მასალის (CSAM) გავრცელებას.







სავარაუდოდ, თავდაპირველად შეერთებულ შტატებში გამოვა, ფუნქციები მოიცავს ახალი ტექნოლოგიის გამოყენებას CSAM-ის ონლაინ გავრცელების შეზღუდვის მიზნით, განსაკუთრებით Apple პლატფორმის საშუალებით.

შემდეგ იქნება მოწყობილობაზე დაცული ბავშვებისთვის სენსიტიური კონტენტის გაგზავნისა და მიღებისგან, მექანიზმებით, რომლებიც აფრთხილებენ მშობლებს, თუ მომხმარებელი 13 წელზე ნაკლები ასაკისაა. Apple ასევე ჩაერევა, როდესაც Siri ან Search გამოიყენება CSAM-თან დაკავშირებული თემების მოსაძიებლად. .



რა ტექნოლოგიას აკეთებს Apple CSAM-ის ონლაინ გავრცელების თავიდან ასაცილებლად?

ბლოგ-პოსტში Apple-მა განმარტა, რომ ის გამოიყენებს კრიპტოგრაფიულ აპლიკაციებს iOS-ისა და iPadOS-ის მეშვეობით iCloud Photo-ზე შენახული ცნობილი CSAM სურათების შესატყვისად. ტექნოლოგია დააკავშირებს მომხმარებლის iCloud-ზე არსებულ სურათებს ბავშვთა უსაფრთხოების ორგანიზაციების მიერ მოწოდებულ ცნობილ სურათებს. და ეს კეთდება სურათის რეალურად ნახვის გარეშე და მხოლოდ თითის ანაბეჭდის მსგავსის ძიებით. იმ შემთხვევაში, თუ მატჩები გადალახავს ბარიერს, Apple შეატყობინებს ამ შემთხვევებს დაკარგული და ექსპლუატირებული ბავშვების ეროვნულ ცენტრს (NCMEC).

Apple-მა განმარტა, რომ მისი ტექნოლოგია ითვალისწინებს მომხმარებლის კონფიდენციალურობას და, შესაბამისად, მონაცემთა ბაზა გარდაიქმნება ჰეშების წაუკითხავ ნაკრებად, რომელიც უსაფრთხოდ ინახება მომხმარებლების მოწყობილობებზე. მან დასძინა, რომ სანამ რაიმე სურათი აიტვირთება iCloud-ზე, ოპერაციული სისტემა მას დაამთხვევს ცნობილ CSAM ჰეშებს კრიპტოგრაფიული ტექნოლოგიის გამოყენებით, რომელსაც ეწოდება პირადი ნაკრების კვეთა. ეს ტექნოლოგია ასევე განსაზღვრავს მატჩს შედეგის გამოვლენის გარეშე.



ამ ეტაპზე, მოწყობილობა ქმნის კრიპტოგრაფიული უსაფრთხოების ვაუჩერს მატჩის შედეგით და დამატებითი დაშიფრული მონაცემებით და ინახავს მას iClouds-ში გამოსახულებასთან ერთად. საიდუმლო გაზიარების ტექნოლოგია უზრუნველყოფს ამ ვაუჩერების ინტერპრეტაციას Apple-ის მიერ, თუ iCloud Photos ანგარიში არ გადალახავს ცნობილი CSAM შინაარსის ზღვარს. ეს ზღვარი, როგორც ბლოგმა ამტკიცებდა, დაწესებულია სიზუსტის უკიდურესად მაღალი დონის უზრუნველსაყოფად და უზრუნველყოფს წელიწადში ერთ ტრილიონზე ნაკლებ შანსს, რომ არასწორად მონიშნოს მოცემული ანგარიში. ასე რომ, ერთი სურათი ნაკლებად სავარაუდოა, რომ გამოიწვიოს გაფრთხილება.



მაგრამ თუ ზღვარი გადააჭარბებს, Apple-ს შეუძლია უსაფრთხოების ვაუჩერების შიგთავსის ინტერპრეტაცია და ხელით განიხილოს თითოეული ანგარიში შესაბამისობისთვის, გამორთოს მომხმარებლის ანგარიში და გაუგზავნოს ანგარიში NCMEC-ს. Apple-ის თქმით, მომხმარებლებს შეეძლებათ გაასაჩივრონ, თუ ფიქრობენ, რომ არასწორად არიან მონიშნული.

როგორ მუშაობს სხვა ფუნქციები?

Apple-ის ახალი კომუნიკაციის უსაფრთხოება Messages-ისთვის დაბინდავს მგრძნობიარე სურათს და გააფრთხილებს ბავშვს კონტენტის ბუნების შესახებ. თუ ჩართულია ფონიდან, ბავშვს ასევე შეიძლება ეთქვას, რომ მშობლებმა გააფრთხილეს მათ მიერ ნანახი შეტყობინების შესახებ. იგივე ეხება იმ შემთხვევაში, თუ ბავშვი გადაწყვეტს მგრძნობიარე შეტყობინების გაგზავნას. Apple-მა განაცხადა, რომ Messages გამოიყენებს მოწყობილობაზე მანქანურ სწავლებას სურათების დანართების გასაანალიზებლად და იმის დასადგენად, არის თუ არა ფოტო სექსუალურად გამოხატული და რომ Apple-ს არ ექნება წვდომა შეტყობინებებზე. ფუნქცია გამოვა, როგორც განახლება iCloud-ში შექმნილი ოჯახების ანგარიშებზე ოპერაციული სისტემის უახლესი ვერსიებისთვის.
ასევე, განახლებით, როდესაც მომხმარებელი ცდილობს მოძებნოს პოტენციური CSAM თემები, Siri და Search აგიხსნით, რატომ შეიძლება იყოს ეს საზიანო და პრობლემური. მომხმარებლები ასევე მიიღებენ მითითებებს, თუ როგორ უნდა წარადგინონ ანგარიში ბავშვთა ექსპლუატაციის შესახებ, თუ ისინი ამას ითხოვენ.



ასევე განმარტებაში| განმარტა: როგორ და რატომ შესთავაზებს Google ბავშვებს უფრო მეტ დაცვას ონლაინ რეჟიმში

რატომ აკეთებს Apple ამას და რა არის შეშფოთება?

მსხვილი ტექნოლოგიური კომპანიები წლების განმავლობაში იმყოფებოდნენ ზეწოლის ქვეშ, რათა დაარღვიონ თავიანთი პლატფორმის გამოყენება ბავშვების ექსპლუატაციის მიზნით. მრავალი მოხსენება წლების განმავლობაში ხაზს უსვამდა იმას, თუ რამდენად არ გაკეთებულა საკმარისი იმისათვის, რომ შეეჩერებინა ტექნოლოგია CSAM შინაარსის უფრო ფართოდ ხელმისაწვდომი გახადოს.

თუმცა, Apple-ის განცხადებას მოჰყვა კრიტიკა და ბევრმა ხაზგასმით აღნიშნა, რომ ეს არის ზუსტად ისეთი სათვალთვალო ტექნოლოგია, რომელსაც ბევრ მთავრობას სურს ჰქონდეს და უყვარს ბოროტად გამოყენება. ის ფაქტი, რომ ეს მოვიდა Apple-ისგან, რომელიც დიდი ხნის განმავლობაში იყო კონფიდენციალურობის დამცველი, ბევრი გააკვირვა.



ასევე, კრიპტოგრაფიის ექსპერტები, როგორიცაა მეთიუ გრინი ჯონს ჰოპკინსის უნივერსიტეტიდან, გამოთქვამენ შიშს, რომ სისტემა შეიძლება გამოყენებულ იქნას უდანაშაულო ადამიანების კადრებისთვის, რომლებიც უგზავნიან მათ სურათებს, რომლებიც გამიზნულია CSAM-ისთვის შესატყვისების გასააქტიურებლად. მკვლევარებმა ამის გაკეთება საკმაოდ მარტივად შეძლეს, განუცხადა მან NPR-ს და დასძინა, რომ ასეთი ალგორითმების მოტყუება შესაძლებელია.

მაგრამ The New York Times ციტირებს Apple-ის კონფიდენციალურობის მთავარ ოფიცერს, ერიკ ნოიენშვანდერს, რომელიც ამბობს, რომ ეს ფუნქციები არაფერს ნიშნავს ჩვეულებრივი მომხმარებლებისთვის.



თუ თქვენ ინახავთ CSAM მასალის კოლექციას, დიახ, ეს ცუდია თქვენთვის, განუცხადა მან გამოცემას.

ბიულეტენი| დააწკაპუნეთ, რომ მიიღოთ დღის საუკეთესო ახსნა-განმარტებები თქვენს შემოსულებში

აქვთ თუ არა სხვა დიდ ტექნიკურ კომპანიებს მსგავსი ტექნოლოგიები?

დიახ. სინამდვილეში, Apple-ი შედარებით გვიან აბიტურიენტია სცენაზე, რადგან Microsoft, Google და Facebook აფრთხილებდნენ სამართალდამცავ ორგანოებს CSAM სურათების შესახებ. Apple ჩამორჩება, რადგან ნებისმიერი ასეთი ტექნოლოგია ეწინააღმდეგება მომხმარებლის კონფიდენციალურობისადმი მის ძალიან რეკლამირებულ ვალდებულებას. შედეგად, 2020 წელს, როდესაც Facebook-მა NCMEC-ს 20.3 მილიონი CSAM დარღვევის შესახებ გამოაცხადა, Apple-ს შეეძლო მხოლოდ 265 შემთხვევის დაფიქსირება, იტყობინება The New York Times.

მხოლოდ ახლა შეძლო მოძებნა ტექნოლოგიური ტკბილი წერტილი, რომელიც ამას აკეთებდა რეგულარულ მომხმარებლებზე გავლენის მოხდენის ან, სულ მცირე, მათ შეშინების გარეშე. თუმცა, როგორც თავდაპირველმა რეაქციამ აჩვენა, ეს მაინც თოკზე გასეირნებაა.

ᲒᲐᲣᲖᲘᲐᲠᲔᲗ ᲗᲥᲕᲔᲜᲡ ᲛᲔᲒᲝᲑᲠᲔᲑᲡ: