Australia berencana untuk mengatur AI yang ‘berisiko tinggi’. Inilah cara melakukannya dengan sukses

By intermedia 7 Min Read
7 Min Read

ai

Kredit: Domain Publik CC0

Minggu ini, Menteri Industri dan Ilmu Pengetahuan federal Ed Husic mengumumkan tanggapan pemerintah Australia terhadap konsultasi AI yang Aman dan Bertanggung Jawab di Australia.

Tanggapan ini menjawab masukan dari konsultasi tahun lalu mengenai kecerdasan buatan (AI). Laporan ini menerima lebih dari 500 pengajuan, dengan menyatakan “kegembiraan atas peluang” dari alat AI, namun juga meningkatkan kekhawatiran mengenai potensi risiko dan ekspektasi masyarakat Australia terhadap “peraturan perlindungan untuk mencegah bahaya.”

Daripada memberlakukan undang-undang tunggal yang mengatur AI seperti yang dilakukan Uni Eropa, pemerintah Australia berencana untuk fokus pada bidang penerapan AI yang berisiko tinggi—bidang yang memiliki potensi kerugian terbesar. Hal ini dapat mencakup contoh-contoh seperti diskriminasi di tempat kerja, sistem peradilan, pengawasan, atau mobil tanpa pengemudi.

Pemerintah juga berencana membentuk kelompok penasihat ahli sementara untuk mendukung pengembangan pagar pembatas ini.

Bagaimana kita mendefinisikan AI ‘berisiko tinggi’?

Meskipun respons proporsional ini mungkin disambut baik oleh sebagian orang, fokus pada bidang-bidang berisiko tinggi yang hanya memiliki badan penasihat sementara menimbulkan pertanyaan-pertanyaan penting:

  • bagaimana area berisiko tinggi akan ditentukan—dan siapa yang mengambil keputusan tersebut?
  • haruskah penerapan AI yang berisiko rendah menghadapi peraturan serupa, ketika beberapa intervensi (seperti mewajibkan tanda air untuk konten yang dihasilkan AI) dapat memerangi misinformasi secara luas?
  • tanpa dewan penasihat permanen, bagaimana organisasi dapat mengantisipasi risiko teknologi AI baru dan penerapan alat AI baru di masa depan?

Menilai “risiko” dalam penggunaan teknologi baru bukanlah hal baru. Kami memiliki banyak prinsip, pedoman, dan peraturan yang dapat disesuaikan untuk mengatasi kekhawatiran tentang alat AI.

BACA JUGA:   Dallas mengatakan serangan siber menyasar lebih banyak orang dibandingkan yang diungkapkan sebelumnya

Misalnya, banyak sektor di Australia yang sudah diatur secara ketat untuk mengatasi masalah keselamatan, seperti kendaraan dan peralatan medis.

Dalam semua penelitian yang melibatkan manusia, peneliti Australia harus mematuhi pedoman nasional yang menetapkan praktik penilaian risiko dengan jelas:

  • mengidentifikasi risiko dan siapa yang mungkin berisiko mengalami kerugian;
  • menilai kemungkinan, tingkat keparahan dan besarnya risiko;
  • mempertimbangkan strategi untuk meminimalkan, memitigasi, dan/atau mengelola risiko;
  • mengidentifikasi potensi manfaat, dan siapa yang dapat memperoleh manfaat; Dan
  • menimbang risiko dan menentukan apakah risiko tersebut dapat dibenarkan oleh potensi manfaatnya.

Penilaian risiko ini dilakukan sebelum penelitian dilakukan, dengan tinjauan dan pengawasan signifikan oleh Komite Etika Penelitian Manusia. Pendekatan serupa dapat digunakan untuk penilaian risiko AI.

AI sudah ada dalam hidup kita

Salah satu masalah signifikan dalam regulasi AI adalah banyak alat yang sudah digunakan di rumah dan tempat kerja di Australia, namun tanpa batasan peraturan untuk mengelola risiko.

Laporan YouGov baru-baru ini menemukan bahwa 90% pekerja Australia menggunakan alat AI untuk tugas sehari-hari, meskipun terdapat keterbatasan dan kekurangan yang serius. Alat AI dapat “berhalusinasi” dan menyajikan informasi palsu kepada pengguna. Kurangnya transparansi mengenai data pelatihan menimbulkan kekhawatiran tentang bias dan pelanggaran hak cipta.

Konsumen dan organisasi memerlukan panduan mengenai penerapan alat AI yang tepat untuk mengelola risiko, namun banyak penggunaan yang berada di luar area “berisiko tinggi”.

Mendefinisikan situasi “berisiko tinggi” merupakan sebuah tantangan. Konsep “risiko” berada pada spektrum dan tidak mutlak. Risiko tidak ditentukan oleh alat itu sendiri, atau lingkungan di mana alat tersebut digunakan. Risiko muncul dari faktor kontekstual yang menciptakan potensi kerugian.

Misalnya, meskipun jarum rajut tidak terlalu berisiko dalam kehidupan sehari-hari, para perajut diperingatkan agar tidak membawa jarum logam di pesawat terbang. Keamanan bandara memandang hal ini sebagai alat yang “berbahaya” dan membatasi penggunaannya dalam situasi ini untuk mencegah bahaya.

BACA JUGA:   Copilot Key - tambahan besar pertama pada keyboard Microsoft dalam 30 tahun

Untuk mengidentifikasi pengaturan “berisiko tinggi” kita harus memahami cara kerja alat AI. Mengetahui bahwa alat AI dapat menyebabkan diskriminasi gender dalam praktik perekrutan berarti semua organisasi harus mengelola risiko dalam perekrutan. Tidak memahami keterbatasan AI, seperti pengacara Amerika yang mempercayai kasus hukum palsu yang dihasilkan oleh ChatGPT, menyoroti risiko kesalahan manusia dalam penggunaan alat AI.

Risiko yang ditimbulkan oleh manusia dan organisasi dalam penggunaan alat AI harus dikelola bersama dengan risiko yang ditimbulkan oleh teknologi itu sendiri.

Siapa yang akan memberi nasihat kepada pemerintah?

Pemerintah menyatakan dalam tanggapannya bahwa badan penasihat ahli mengenai risiko AI akan memerlukan “keanggotaan dan keahlian yang beragam dari berbagai industri, akademisi, masyarakat sipil, dan profesi hukum.”

Dalam industri, keanggotaan harus mencakup berbagai sektor (seperti layanan kesehatan, perbankan, penegakan hukum) dengan perwakilan dari organisasi besar dan usaha kecil dan menengah.

Di dunia akademis, keanggotaan harus mencakup tidak hanya pakar komputasi AI, tetapi juga ilmuwan sosial dengan keahlian di bidang perilaku konsumen dan organisasi. Mereka dapat memberikan saran mengenai analisis risiko, etika, dan apa yang dikhawatirkan orang ketika mengadopsi teknologi baru, termasuk misinformasi, kepercayaan, dan masalah privasi.

Pemerintah juga harus memutuskan bagaimana mengelola potensi risiko AI di masa depan. Badan penasihat permanen dapat mengelola risiko terhadap teknologi masa depan dan penggunaan baru alat-alat yang sudah ada.

Badan tersebut juga dapat memberi saran kepada konsumen dan tempat kerja mengenai penerapan AI dengan tingkat risiko yang lebih rendah, terutama jika peraturannya terbatas atau tidak ada sama sekali.

Misinformasi adalah salah satu bidang utama yang menunjukkan keterbatasan alat AI, yang mengharuskan masyarakat memiliki pemikiran kritis yang kuat dan keterampilan literasi informasi. Misalnya, mewajibkan transparansi dalam penggunaan gambar yang dihasilkan AI dapat memastikan konsumen tidak disesatkan.

BACA JUGA:   Cara mengenali deepfake

Namun fokus pemerintah terhadap transparansi saat ini terbatas pada situasi yang “berisiko tinggi”. Ini adalah sebuah permulaan, namun diperlukan lebih banyak saran dan peraturan.

Disediakan oleh Percakapan

Artikel ini diterbitkan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel aslinya.Percakapan

Kutipan: Australia berencana untuk mengatur AI yang ‘berisiko tinggi’. Berikut cara melakukannya dengan sukses (2024, 18 Januari) diambil 31 Januari 2024 dari https://techxplore.com/news/2024-01-australia-high-ai-successfulness.html

Dokumen ini memiliki hak cipta. Terlepas dari transaksi wajar untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.

______
Diterjemahkan dari techxplore.com

Share This Article