Mengapa Perangkat Lunak Pembaca Emosi Dapat Melanggar Privasi Anda

  • Zoom dilaporkan mengatakan akan menggunakan AI untuk mengevaluasi sentimen atau tingkat keterlibatan pengguna.
  • Kelompok hak asasi manusia meminta Zoom untuk memikirkan kembali rencananya karena masalah privasi dan keamanan data.
  • Beberapa perusahaan juga menggunakan perangkat lunak pendeteksi emosi selama wawancara untuk menilai apakah pengguna memperhatikan.

Jasmin Merdan / Getty Images

Meningkatnya penggunaan kecerdasan buatan (AI) untuk memantau emosi manusia menimbulkan masalah privasi.

Organisasi hak asasi manusia meminta Zoom untuk memperlambat rencananya untuk memperkenalkan AI penganalisis emosi ke dalam perangkat lunak konferensi videonya. Perusahaan dilaporkan mengatakan akan menggunakan AI untuk mengevaluasi sentimen atau tingkat keterlibatan pengguna.

“Para ahli mengakui bahwa analisis emosi tidak berhasil,” tulis konsorsium kelompok hak asasi manusia, termasuk ACLU, dalam surat kepada Zoom. “Ekspresi wajah sering tidak berhubungan dengan emosi di bawahnya, dan penelitian telah menemukan bahwa bahkan manusia pun tidak dapat secara akurat membaca atau mengukur emosi orang lain. Mengembangkan alat ini menambah kepercayaan pada ilmu semu dan mempertaruhkan reputasi Anda.”

Zoom tidak segera menanggapi permintaan komentar dari Lifewire.

Mengawasi Emosi Anda

Menurut artikel Protokol , sistem pemantauan Zoom yang disebut Q for Sales akan memeriksa rasio waktu bicara pengguna, jeda waktu respons, dan frekuensi pergantian speaker untuk melacak seberapa terlibat orang tersebut. Zoom akan menggunakan data ini untuk menetapkan skor antara nol dan 100, dengan skor yang lebih tinggi menunjukkan keterlibatan atau sentimen yang lebih tinggi.

Kelompok hak asasi manusia mengklaim perangkat lunak tersebut dapat mendiskriminasi penyandang disabilitas atau etnis tertentu dengan mengasumsikan bahwa setiap orang menggunakan ekspresi wajah, pola suara, dan bahasa tubuh yang sama untuk berkomunikasi. Kelompok tersebut juga menyarankan perangkat lunak tersebut dapat menjadi risiko keamanan data.

Gambar Morsa / Gambar Getty

“Memanen data pribadi yang mendalam dapat membuat entitas apa pun yang menyebarkan teknologi ini menjadi target untuk mengintai otoritas pemerintah dan peretas jahat,” menurut surat itu.

Julia Stoyanovich, seorang profesor ilmu komputer dan teknik di Universitas New York, mengatakan kepada Lifewire dalam sebuah wawancara email bahwa dia skeptis tentang klaim di balik deteksi emosi.

“Saya tidak melihat bagaimana teknologi seperti itu bisa bekerja—ekspresi emosional orang sangat individual, sangat tergantung budaya, dan sangat spesifik konteks,” kata Stoyanovich. “Tapi, mungkin yang lebih penting, saya tidak melihat mengapa kita ingin alat ini bekerja. Dengan kata lain, kita akan mendapat lebih banyak masalah jika bekerja dengan baik. Tapi mungkin bahkan sebelum memikirkan risikonya, kita harus tanyakan — apa manfaat potensial dari teknologi semacam itu?”

Zoom bukan satu-satunya perusahaan yang menggunakan perangkat lunak pendeteksi emosi. Theo Wills, direktur senior privasi di Kuma LLC, sebuah perusahaan konsultan privasi dan keamanan, mengatakan kepada Lifewire melalui email bahwa perangkat lunak untuk mendeteksi emosi digunakan selama wawancara untuk menilai apakah pengguna memperhatikan. Ini juga sedang diujicobakan di industri transportasi untuk memantau apakah pengemudi tampak mengantuk, di platform video untuk mengukur minat dan menyesuaikan rekomendasi, dan di tutorial pendidikan untuk menentukan apakah metode pengajaran tertentu menarik.

Wills berpendapat bahwa kontroversi seputar perangkat lunak pemantauan emosi lebih merupakan masalah etika data daripada privasi. Dia mengatakan ini tentang sistem yang membuat keputusan dunia nyata berdasarkan firasat.

“Dengan teknologi ini, Anda sekarang mengasumsikan alasan saya memiliki ekspresi tertentu di wajah saya, tetapi dorongan di balik ekspresi sangat bervariasi karena hal-hal seperti pendidikan sosial atau budaya, perilaku keluarga, pengalaman masa lalu, atau kegugupan pada saat itu,” Wills menambahkan. “Mendasarkan algoritme pada asumsi secara inheren cacat dan berpotensi diskriminatif. Banyak populasi tidak terwakili dalam populasi yang menjadi dasar algoritme, dan representasi yang tepat perlu diprioritaskan sebelum ini harus digunakan.”

Pertimbangan Praktis

Masalah yang diangkat oleh perangkat lunak pelacakan emosi mungkin bersifat praktis dan juga teoretis. Matt Heisie, salah satu pendiri Ferret.ai, aplikasi berbasis AI yang menyediakan kecerdasan hubungan, mengatakan kepada Lifewire melalui email bahwa pengguna perlu bertanya di mana analisis wajah dilakukan dan data apa yang disimpan. Apakah studi dilakukan pada rekaman panggilan, diproses di cloud, atau di perangkat lokal?

Selain itu, Heisie bertanya, saat algoritme mempelajari, data apa yang dikumpulkannya tentang wajah atau gerakan seseorang yang berpotensi dapat dipisahkan dari algoritme dan digunakan untuk membuat ulang biometrik seseorang? Apakah perusahaan menyimpan snapshot untuk memverifikasi atau memvalidasi pembelajaran algoritme, dan apakah pengguna diberi tahu tentang data turunan baru ini atau gambar tersimpan yang berpotensi dikumpulkan dari panggilan mereka?

“Ini semua adalah masalah yang telah diselesaikan oleh banyak perusahaan, tetapi ada juga perusahaan yang diguncang skandal ketika ternyata mereka tidak melakukannya dengan benar,” kata Heisie. “Facebook adalah kasus paling signifikan dari perusahaan yang membatalkan platform pengenalan wajahnya karena kekhawatiran tentang privasi pengguna. Perusahaan induk Meta sekarang menarik fitur AR dari Instagram di beberapa yurisdiksi seperti Illinois dan Texas atas undang-undang privasi seputar data biometrik.”

Related Posts