Seorang peneliti keselamatan utama dari Anthropic, Mrinank Sharma, mengumumkan pengunduran dirinya dari perusahaan minggu ini dalam sebuah pos di X. Keputusan Sharma ini tampaknya dipicu oleh kekhawatirannya seputar keadaan AI saat ini dan dunia.
Mrinank Sharma memimpin Tim Penelitian Keamanan di Anthropic, sebuah perusahaan AI terkemuka yang model bahasa besar (LLM) nya, Claude, dianggap sebagai pesaing utama ChatGPT milik OpenAI. Kepergian Sharma cukup mendadak, karena Tim Penelitian Keamanan baru secara resmi diluncurkan pada bulan Februari tahun lalu. Fokus utama tim ini adalah untuk mengidentifikasi, memahami, dan membantu mengurangi risiko yang terkait dengan sistem AI yang diterapkan oleh Anthropic, seperti Claude.
Kepergian mendadak seorang peneliti keselamatan terkemuka di salah satu perusahaan AI terbesar di AS telah menyebabkan banyak kontroversi di media sosial. Mungkin bagian paling mencolok dari surat pengunduran diri adalah ketika Sharma secara samar memperingatkan bahwa “dunia dalam bahaya.” Dia mengaitkan ini “tidak hanya dengan AI, atau senjata biologi,” tetapi dengan “serangkaian krisis yang saling terhubung yang terjadi saat ini.” Ini ditafsirkan oleh banyak orang sebagai peringatan tentang risiko eksistensial yang datang dengan kemajuan AI. Pengunduran diri Sharma adalah bagian dari tren yang lebih besar, mengkhawatirkan, dan mempercepat pengunduran diri oleh karyawan berprofil tinggi di perusahaan AI baru-baru ini.
Menginterpretasikan surat pengunduran diri Sharma
Mrinank Sharma memulai surat dengan secara singkat membahas latar belakangnya dan apa yang menginspirasinya, yang paling mencolok adalah “keberanian untuk membuat keputusan sulit dan berdiri untuk apa yang baik.” Dia juga berbicara tentang kontribusinya kepada Anthropic, termasuk mengembangkan dan menerapkan pertahanan “untuk mengurangi risiko dari bioterrorisme yang dibantu AI,” dan menulis salah satu kasus keselamatan AI pertama. Proyek terakhirnya adalah “memahami bagaimana asisten AI dapat membuat kita kurang manusia atau mendistorsi kemanusiaan kita.”
Namun, bagian dari suratnya yang menimbulkan kekhawatiran terbesar adalah paragraf ketiga. Meskipun dia tidak secara langsung menuduh Anthropic melakukan kesalahan atau secara terang-terangan mengatakan bahwa AI akan membunuh kita semua, dia menggunakan banyak bahasa filosofis untuk menjelaskan pengunduran dirinya. Dia menyatakan bahwa “kita tampaknya mencapai ambang batas di mana kebijaksanaan kita harus tumbuh seimbang dengan kapasitas kita untuk mempengaruhi dunia, jika tidak kita akan menghadapi konsekuensinya.” Ini diikuti oleh tulisannya, “Saya telah berulang kali melihat betapa sulitnya benar-benar membiarkan nilai-nilai kita mengatur tindakan kita.” Dia juga menggambarkan dunia berada dalam bahaya dari serangkaian krisis yang saling terhubung, yang dia sebut dalam catatan kaki sebagai “krisis polivalen” yang didukung oleh “krisis meta.”
Bahasa ini menunjukkan bahwa kepergiannya dari Anthropic dipicu oleh lebih banyak perbedaan filosofis daripada jenis sengketa internal di perusahaan. Dengan menggambarkan momen saat ini sebagai “krisis polivalen” yang didukung oleh “krisis meta,” Sharma tampaknya menunjuk pada masalah struktural yang jauh lebih besar yang dihadapi masyarakat dan pengembangan AI sebagai perpanjangannya. Teknologi berkembang lebih cepat daripada kebijaksanaan kolektif, dan sistem serta kekuatan saat ini yang mengelola dan mempengaruhi perkembangannya tidak diperlengkapi dengan baik untuk melakukannya dalam keadaan dunia saat ini.
Pengambilan yang lebih besar dari surat pengunduran diri Sharma
Pengambilan yang lebih besar dari surat pengunduran diri Sharma adalah multifaset dan eksistensial. Di satu sisi, dia tampaknya percaya ada masalah mendasar dengan cara perusahaan teknologi menavigasi percepatan pengembangan AI di dalam sistem yang kompetitif. Kekuatan global berada dalam perlombaan senjata untuk melampaui satu sama lain dalam AI dan kemajuan teknologi lainnya, dengan pengeluaran teknologi global diperkirakan mencapai $5,6 triliun pada tahun 2026. Ini berarti bahwa perusahaan AI tidak hanya berinovasi dan membangun produk, tetapi juga merupakan komponen penting dari konflik geopolitik. Selain itu, perusahaan-perusahaan ini memiliki tanggung jawab fidusia untuk berkinerja baik bagi pemegang saham, menciptakan insentif untuk melampaui pesaing mereka dalam kemajuan teknologi.
Ini mendorong lingkungan di mana prinsip dan prosedur keselamatan juga harus selaras dengan tekanan pasar, daya saing nasional, dan harapan para investor. Namun, saat perusahaan AI dengan cepat berkembang dan meningkatkan kemampuannya, mereka perlu mengidentifikasi, memahami, dan mengurangi risiko yang datang bersama mereka. Masalah yang tampaknya dihadapi Sharma adalah bahwa sistem saat ini di mana perusahaan AI beroperasi secara alami memprioritaskan pertumbuhan di atas keselamatan dan pertimbangan etis. Implikasi dari dinamika ini sangat mendalam secara eksistensial dan menjadi penyebab kekhawatiran besar. Seorang pria seperti Sharma, yang tampaknya memiliki integritas yang baik, jelas tidak dapat terus beroperasi dalam sistem ini tanpa mengorbankan nilai-nilainya, yang membuatnya menarik diri sepenuhnya dari situ.
Dapatkan 8% CASHBACK dalam USDC ketika Anda membayar dengan COCA. Pesan kartu GRATIS Anda.

