Apple ប្រកាសពន្យារពេល ក្នុងការដាក់ឱ្យ ប្រើប្រាស់មុខងារ CSAM

0

នាយកដ្ឋានប្រឆាំងបទល្មើសបច្ចេកវិទ្យា បានឲ្យដឹងថា កាលពីម្សិលមិញនេះក្រុមហ៊ុន Apple បានប្រកាសពន្យារពេល ក្នុងការដាក់ឱ្យប្រើប្រាស់មុខងារ CSAM ដែលគ្រោងនឹងបញ្ចេញ ជាមួយនឹងប្រព័ន្ធប្រតិបត្តិការ iOS 15 ដើម្បីធ្វើការកែសម្រួលបន្ទាប់ពី មានការរិះគន់ពីក្រុមអ្នកឃ្លាំមើល និងអ្នកស្រាវជ្រាវផ្នែកសុវត្ថិភាព បច្ចេកវិទ្យាជាច្រើន។

ទោះបីជាមុខងារនេះ អាចជួយកាត់បន្ថយការជួញដូរកុមារ ប៉ុន្តែក្រុមអ្នកឃ្លាំមើល និងអ្នកស្រាវជ្រាវមួយចំនួន មានការព្រួយបារម្ភទាក់ទងទៅនឹង ការការពារទិន្នន័យឯកជនភាព របស់អ្នកប្រើប្រាស់ ហើយម្យ៉ាងវិញទៀតមុខងារនេះ អាចត្រូវបានប្រើដើម្បីតាមដាន អ្នកប្រើប្រាស់វិញក៏បាន។

CSAM ឬ Child Sexual Abuse Material គឺជាមុខងារដែលអាចស្កេន រករូបភាពអាសអាភាស កុមារនៅក្នុងប្រព័ន្ធ iCloud ហើយធ្វើការប្រៀបធៀបរូបភាព ទាំងនោះទៅនឹងរូបភាពដែលបាន បញ្ជូនមកពីប្រទេសនៅជុំវិញពិភពលោក។ ដូច្នេះមុខងារនេះអាចដំណើរការ បានប្រសិនបើអ្នកប្រើប្រាស់ បានបើកប្រើមុខងារ iCloud Photos‌។

ជាមួយនឹងមុខងារ CSAM ក្រុមហ៊ុន Apple ក៏បានបន្ថែមមុខងារដែលអាច ស្កេនរករូបភាពអាសអាភាស ក្មេងក្រោមអាយុ ១៨ឆ្នាំ ដែលផ្ញើតាមរយៈ iMessage ជាមួយនឹងទូរសព្ទ iPhone ដែលនាយកដ្ឋានបានផ្សព្វផ្សាយ រួចមកហើយកាលពីខែសីហា។ មុខងារនេះគឺសម្រាប់គណនី ដែលមានក្មេងក្រោមអាយុ ១៨ឆ្នាំ និងតម្រូវឱ្យមានការ ឯកភាពពីអាណាព្យាបាល។

នៅពេលដែលក្រុមហ៊ុនស្កេន ឃើញរូបភាពអាសអាភាសនៅក្នុងសារ iMessage ក្រុមហ៊ុនមិនត្រឹមតែ ធ្វើឱ្យរូបភាពទាំងនោះព្រិល ថែមទាំងបង្ហាញនូវពាក្យពេចន៍ ព្រមានទាក់ទងនឹងរូបភាព ទាំងនេះផងដែរ។ ប្រសិនបើកុមារបើកមើល រូបភាពទាំងនោះ ក្រុមហ៊ុនអាចនឹងផ្ដល់ដំណឹង ទៅអាណាព្យាបាល ប្រសិនបើពួកគេបានបើកប្រើមុខងារនេះ។ សម្រាប់គណនីដែលមានក្មេងពីអាយុ ១៣ ដល់ ១៧ឆ្នាំ ក្រុមហ៊ុនគ្រាន់តែបង្ហាញសារព្រមាន និងធ្វើឱ្យរូបភាពព្រិលតែប៉ុណ្ណោះ ៕