Kelompok Kerja NEA tentang Teknologi Baru menyelenggarakan sebuah lokakarya pada 25–26 Maret, dengan fokus pada bagaimana kecerdasan buatan dapat diterapkan pada pengawasan regulatori dan operasi internal di dalam otoritas nuklir.
Ringkasan
Diskusi berpusat pada penerapan praktis, bukan teori, sementara para peserta menelaah bagaimana alat yang ada dapat disesuaikan dengan alur kerja regulatori.
Acara ini mempertemukan regulator nuklir dan spesialis AI dari 15 negara anggota NEA, serta perwakilan dari organisasi internasional. Para peserta berbagi studi kasus yang menunjukkan sistem AI yang sudah digunakan atau sedang dikembangkan di berbagai badan regulatori.
Contoh yang disajikan selama sesi mencakup pembuatan ringkasan dan presentasi menggunakan AI, peningkatan kemampuan simulasi, serta ekstraksi informasi yang relevan dari volume besar dokumen regulatori.
Demonstrasi ini memicu pertukaran yang mendalam mengenai tantangan implementasi, pelajaran yang dipetik, dan cara mengidentifikasi aplikasi bernilai tinggi.
Para peserta menyoroti beberapa inti-pesan utama. Ada kebutuhan yang jelas untuk membangun kerangka kerja AI yang terstruktur di dalam badan regulatori, didukung oleh prosedur dan pedoman yang ditetapkan.
Proyek yang ruang lingkupnya jelas dipandang dapat berfungsi lebih efektif, sementara kriteria keberhasilan yang tegas untuk alat dan inisiatif AI dianggap penting.
Model on-premise diidentifikasi sebagai cara yang mungkin untuk mengatasi kekhawatiran terkait keamanan siber, kedaulatan data, dan perlindungan data. Pada saat yang sama, keahlian manusia tetap menjadi pusat dalam pengambilan keputusan dan dalam menafsirkan keluaran yang dihasilkan AI.
Lokakarya mendorong perbandingan terbuka terhadap pendekatan nasional, dengan para regulator berbagi pengalaman implementasi dan mengidentifikasi kekhawatiran yang umum. Pertukaran tersebut juga menunjuk pada area yang dapat memperoleh manfaat dari kerja sama internasional yang lebih erat untuk membantu mengatasi tantangan bersama.
Tn. Eetu Ahonen, Wakil Ketua WGNT, memimpin diskusi dan menekankan nilai kolaborasi lintas yurisdiksi.
“Lokakarya ini menunjukkan nilai dalam kolaborasi internasional. Setiap regulator mengeksplorasi AI dari sudut pandang yang berbeda, tetapi pengalaman yang kami miliki dalam implementasi alat AI, tantangan keamanan data, dan memastikan pengawasan manusia ternyata sangat mirip. Dengan berbagi secara terbuka dan belajar dari satu sama lain, kami memperkuat kemampuan kami untuk menggunakan AI secara bertanggung jawab dan efisien guna meningkatkan keselamatan nuklir.”
WGNT, yang menyelenggarakan acara ini, berfungsi sebagai platform bagi regulator dan organisasi dukungan teknis untuk bertukar wawasan mengenai pengawasan teknologi yang sedang berkembang sepanjang siklus hidupnya. Karyanya mendukung pengembangan pemahaman bersama dan membantu mengidentifikasi jalur menuju posisi regulatori yang selaras.
NEA berencana menerbitkan brosur khusus yang merangkum temuan lokakarya, termasuk tantangan utama, pelajaran yang dipetik, dan praktik yang direkomendasikan untuk mengintegrasikan AI ke dalam proses regulatori.
Artikel Terkait
DeepSeek Dilaporkan Meluncurkan Putaran Penggalangan Dana Eksternal Pertama, Menargetkan Valuasi $10B+ dan $300M+
Iklan ChatGPT masuk ke Australia dan Selandia Baru: Free dan pengguna Go lebih dulu, paket berbayar tetap tanpa iklan
Hyundai Motor Group Mengorganisasi Ulang Berpusat pada AI dan Robotika, Menargetkan 30.000 Robot Atlas pada 2030
Tiongkok Akan Menguji 300+ Robot Humanoid di Paruh Maraton Beijing pada 19 April
AS Ingin Meningkatkan Impor Uranium Namibia untuk Menjalankan Pembangkit Nuklir Berbasis AI
Para Eksekutif OpenAI Bill Peebles dan Kevin Weil Berpamitan dalam Penataan Ulang Kepemimpinan