បច្ចេកវិទ្យា៖ ក្រុមហ៊ុន Apple បាននិយាយថា ខ្លួនកំពុងណែនាំមុខងារសុវត្ថិភាពកុមារថ្មីនៅក្នុងប្រព័ន្ធប្រតិបត្តិការ iOS, iPadOS, watchOS, និង macOS ដែលជាផ្នែកមួយនៃកិច្ចខិតខំប្រឹងប្រែង ទប់ស្ដាត់ការរីករាលដាលនៃការរំលោភបំពានផ្លូវភេទលើកុមារ ហៅកាត់ថាកម្មវិធី CSAM ដែលចាប់ផ្ដើមសាកល្បងពីសហរដ្ឋអាមេរិក។
ក្រុមហ៊ុនiPhone បាននិយាយថា ខ្លួនមានបំណងចាប់ផ្តើមស្កេនរូបភាពដែលបានចែករំលែកតាមរយៈឧបករណ៍របស់ក្រុមហ៊ុន ដើម្បីដឹងអំពីការរំលោភបំពានលើកុមារ នៅពេលដែលពួកគេកំពុងបញ្ចូលរូបថតទៅក្នុង iCloud បន្ថែមពីលើការប្រើប្រាស់ដោយការបង្រៀនម៉ាស៊ីន (ML) នៅលើឧបករណ៍ដើម្បីពិនិត្យមើលរាល់ រូបភាពដែលផ្ញើឬទទួលដោយគណនីអនីតិជន (អាយុក្រោម ១៣ ឆ្នាំ) ដើម្បីរំលឹកសារដល់ ឱពុកម្តាយ អំពីរូបថតអាសអាភាសដែលបានចែករំលែកនោះ។
លើសពីនេះ Apple ក៏មានគម្រោងធ្វើបច្ចុប្បន្នភាព Siri និង Search ដើម្បីធ្វើអន្តរាគមន៍នៅពេលអ្នកប្រើប្រាស់ព្យាយាមស្វែងរកប្រធានបទទាក់ទងនឹង CSAM ដោយបង្ហាញសាររំលឹកថា “ interest in this topic is harmful and problematic ” មានន័យថា មានគ្រោះថ្នាក់។
ក្រុមហ៊ុន Apple បានកត់សម្គាល់ថា “ការប្រើប្រាស់ ML ដើម្បីវិភាគឯកសារភ្ជាប់រូបភាពនិងកំណត់ថា តើរូបថតមួយណាមានលក្ខណៈពាក់ព័ន្ធផ្លូវភេទដែរឬយ៉ាងណា” ។
វិធីរករូបភាពនៃរំលោភបំពានផ្លូវភេទកុមារ
ការរករូបភាពតាម CSAM នេះ ពាក់ព័ន្ធនឹងការអនុវត្តការផ្គូផ្គងនៅលើឧបករណ៍ ដោយប្រើមូលដ្ឋានទិន្នន័យនៃរូបភាព CSAM ដែលផ្តល់ដោយមជ្ឈមណ្ឌលជាតិសម្រាប់កុមារដែលបាត់ខ្លួននិងកេងប្រវ័ញ្ច (NCMEC) និងអង្គការសុវត្ថិភាពកុមារដទៃទៀត មុនពេលរូបថតត្រូវបានបញ្ចូលទៅក្នុងខ្លោដ។
អ្នកស្រាវជ្រាវបង្ហាញការព្រួយបារម្ភអំពីឯកជនភាព
គំនិតផ្តួចផ្តើម CSAM របស់ក្រុមហ៊ុន Apple បានជំរុញឱ្យអ្នកស្រាវជ្រាវផ្នែកសន្តិសុខ សម្តែងការព្រួយបារម្ភថាកម្មវិធីនេះនឹងត្រូវបានប្រើប្រាស់ដោយអ្នកនយោបាយ ហើយត្រូវបានពង្រីកលទ្ធភាពក្នុងការរកមើលមាតិកាប្រភេទផ្សេងទៀត ដែលអាចមានផលប៉ះពាល់ផ្នែកនយោបាយនិងសុវត្ថិភាពបុគ្គល៕