Jakarta (ANTARA) - Pelaksana Tugas (Plt) Direktur Tata Kelola Aplikasi Informatika kementerian komunikasi dan Informatika Teguh Arifiadi menilai regulasi yang ada saat ini sudah cukup untuk menindak pelaku penyalahgunaan teknologi kecerdasan buatan (AI).
"Saya yakin bahwa instrumen regulasi yang sudah ada saat ini cukup mampu untuk menindak para pelaku penyalahgunaan AI," ujar Teguh dalam diskusi bertajuk "Sikap dan kebijakan Indonesia tentang kecerdasan buatan", Rabu.
Dia mencontohkan, pelaku penyalahgunaan AI yang menggunakan teknologi deep fake untuk menyebarkan hoaks bisa dijerat dengan Undang-Undang Informasi dan Transaksi Elektronik Pasal 35 tentang manipulasi.
Selain itu, terdapat regulasi-regulasi lainnya yang mengatur tentang ujaran kebencian, pemalsuan, hingga berita bohong. Menurut dia, regulasi tersebut sudah cukup untuk menjerat para pelaku yang menyalahgunakan AI untuk kepentingan melanggar hukum.
Namun, Teguh mengatakan bahwa persoalan utama dalam menghadapi kasus tentang penyalahgunaan AI bukanlah tentang instrumen hukum, melainkan pembuktiannya.
"Tapi persoalannya bukan terkait dengan instrumen hukumnya saja. Dalam proses penegakan hukum, apalagi berbasis teknologi, isu lainnya adalah bagaimana dari sisi pembuktiannya, digital evidence-nya, maupun proses forensiknya itu akan jauh lebih rumit ketika AI digunakan sebagai alat atau sarana kejahatan," kata dia.
Dalam kesempatan itu, Teguh turut menyampaikan tentang skema pengaturan AI. Dia mengatakan ada beberapa opsi skema yang bisa diterapkan.
Pertama adalah Heavy Regulation. Dalam skema ini, AI harus diatur secara ketat, mulai dari sisi tata kelola, pengembangan, tanggung jawab hukum, dan penegakan hukum.
Opsi kedua adalah Less Regulation. Pada skema ini, hanya beberapa hal prinsip yang diatur berkaitan dengan AI. Pemerintah hanya memfasilitasi dan mempromosikannya.
Selanjutnya adalah Sandbox Regulation, di mana AI diatur dengan regulasi yang fleksibel atau luwes untuk menjaga keseimbangan antara inovasi dan kepentingan masyarakat. Pemerintah dan pelaku AI saling berbagi pengetahuan. Pada skema ini, pengawasan yang dilakukan juga ketat.
Opsi keempat adalah Principles and Ethics, yakni kesepakatan bersama para pemangku kepentingan untuk hanya merumuskan mengenai prinsip dan etika mengenai AI.
"Yang terakhir ada Combination Model yaitu menggabungkan antara regulasi dan etika," pungkas dia.
"Saya yakin bahwa instrumen regulasi yang sudah ada saat ini cukup mampu untuk menindak para pelaku penyalahgunaan AI," ujar Teguh dalam diskusi bertajuk "Sikap dan kebijakan Indonesia tentang kecerdasan buatan", Rabu.
Dia mencontohkan, pelaku penyalahgunaan AI yang menggunakan teknologi deep fake untuk menyebarkan hoaks bisa dijerat dengan Undang-Undang Informasi dan Transaksi Elektronik Pasal 35 tentang manipulasi.
Selain itu, terdapat regulasi-regulasi lainnya yang mengatur tentang ujaran kebencian, pemalsuan, hingga berita bohong. Menurut dia, regulasi tersebut sudah cukup untuk menjerat para pelaku yang menyalahgunakan AI untuk kepentingan melanggar hukum.
Namun, Teguh mengatakan bahwa persoalan utama dalam menghadapi kasus tentang penyalahgunaan AI bukanlah tentang instrumen hukum, melainkan pembuktiannya.
"Tapi persoalannya bukan terkait dengan instrumen hukumnya saja. Dalam proses penegakan hukum, apalagi berbasis teknologi, isu lainnya adalah bagaimana dari sisi pembuktiannya, digital evidence-nya, maupun proses forensiknya itu akan jauh lebih rumit ketika AI digunakan sebagai alat atau sarana kejahatan," kata dia.
Dalam kesempatan itu, Teguh turut menyampaikan tentang skema pengaturan AI. Dia mengatakan ada beberapa opsi skema yang bisa diterapkan.
Pertama adalah Heavy Regulation. Dalam skema ini, AI harus diatur secara ketat, mulai dari sisi tata kelola, pengembangan, tanggung jawab hukum, dan penegakan hukum.
Opsi kedua adalah Less Regulation. Pada skema ini, hanya beberapa hal prinsip yang diatur berkaitan dengan AI. Pemerintah hanya memfasilitasi dan mempromosikannya.
Selanjutnya adalah Sandbox Regulation, di mana AI diatur dengan regulasi yang fleksibel atau luwes untuk menjaga keseimbangan antara inovasi dan kepentingan masyarakat. Pemerintah dan pelaku AI saling berbagi pengetahuan. Pada skema ini, pengawasan yang dilakukan juga ketat.
Opsi keempat adalah Principles and Ethics, yakni kesepakatan bersama para pemangku kepentingan untuk hanya merumuskan mengenai prinsip dan etika mengenai AI.
"Yang terakhir ada Combination Model yaitu menggabungkan antara regulasi dan etika," pungkas dia.