Frontier Model Forum Pastikan Pengembangan AI yang Aman
TEKNOLOGI DIGITAL
Jul 27 2023, 06.11
Empat pemain AI terkemuka berkumpul untuk membentuk badan industri baru yang dirancang untuk memastikan pengembangan yang aman dan bertanggung jawab yang disebut model frontier AI.
Menanggapi seruan yang semakin meningkat untuk pengawasan regulasi, pengembang ChatGPT, OpenAI, Microsoft, Google, dan Anthropic telah mengumumkan Frontier Model Forum. Ini adalah sebuah koalisi yang memanfaatkan keahlian perusahaan-perusahaan anggota untuk mengembangkan evaluasi dan tolok ukur teknis, serta mempromosikan praktik dan standar terbaik.
Inti dari misi forum ini adalah sesuatu yang sebelumnya disebut OpenAI sebagai frontier AI, yaitu model AI dan pembelajaran mesin canggih yang dianggap cukup berbahaya dan menimbulkan risiko besar bagi keselamatan publik.
Mereka berpendapat bahwa model-model seperti itu menimbulkan tantangan regulasi yang unik, karena kemampuan berbahaya dapat muncul secara tak terduga sehingga sulit untuk mencegah model-model tersebut disalahgunakan.
Tujuan yang dinyatakan sendiri untuk forum baru ini meliputi:
ü Memajukan penelitian keamanan AI untuk mempromosikan pengembangan model perbatasan yang bertanggung jawab, meminimalkan risiko, dan memungkinkan evaluasi kemampuan dan keamanan yang independen dan terstandardisasi.
ü Mengidentifikasi praktik terbaik untuk pengembangan dan penerapan model frontier yang bertanggung jawab, membantu masyarakat memahami sifat, kemampuan, keterbatasan, dan dampak teknologi.
ü Berkolaborasi dengan para pembuat kebijakan, akademisi, masyarakat sipil, dan perusahaan untuk berbagi pengetahuan tentang risiko kepercayaan dan keselamatan.
ü Mendukung upaya untuk mengembangkan aplikasi yang dapat membantu menjawab tantangan terbesar masyarakat, seperti mitigasi dan adaptasi perubahan iklim, deteksi dan pencegahan kanker dini, dan memerangi ancaman siber.
Meskipun saat ini Frontier Model Forum hanya beranggotakan empat orang, namun forum ini terbuka untuk menerima anggota baru. Organisasi yang memenuhi syarat harus mengembangkan dan menerapkan model AI perbatasan, dan menunjukkan komitmen yang kuat terhadap keamanan model perbatasan.
Dalam jangka pendek, para anggota pendiri mengatakan bahwa langkah pertama yang akan dilakukan adalah membentuk dewan penasihat untuk mengarahkan strateginya, di samping piagam, tata kelola, dan struktur pendanaan.
Sistem rekomendasi konten TikTok atau kita kenal dengan FYP, dan praktik pengumpulan data yang invasif disebutkan menimbulkan bahaya bagi pengguna anak muda.