Seseorang Membangun 'Mythos Teoritis' Sumber Terbuka untuk Membalikkan Rekayasa AI Paling Berbahaya dari Anthropic

Singkatnya

  • OpenMythos adalah rekonstruksi dari awal arsitektur Mythos Claude, dibangun hanya dari makalah penelitian publik dan tebakan yang didasarkan pada pengetahuan.
  • Claude Mythos adalah model paling kuat dari Anthropic, disimpan dalam Project Glasswing karena secara otomatis menemukan 271 kerentanan Firefox dan serangan jaringan 32-langkah.
  • Repositori ini adalah kerangka teoretis—kode tanpa bobot terlatih. Ini mencerminkan upaya terpisah oleh Vidoc Security yang mereproduksi temuan kerentanan Mythos menggunakan model-model siap pakai.

Jika Anthropic tidak akan menunjukkan apa yang ada di dalam AI paling berbahaya mereka, seseorang di GitHub akan menebaknya. Seorang pengembang bernama Kye Gomez telah mempublikasikan OpenMythos, sebuah rekonstruksi sumber terbuka dari apa yang dia pikir Mythos Claude tampak seperti di dalamnya. Repositori ini mendapatkan lebih dari 10.000 bintang GitHub dalam beberapa minggu setelah dirilis, dan dilengkapi dengan file “readme” lengkap berisi persamaan, kutipan, dan disclaimer sopan bahwa ini tidak ada hubungannya dengan Anthropic. Ini adalah spekulasi. Tapi ini adalah spekulasi yang terstruktur, dalam kode. Berikut adalah pengingat singkat tentang apa itu Mythos: Mythos bocor ke tampilan publik pada akhir Maret, ketika Anthropic secara tidak sengaja mempublikasikan bahan draf yang menggambarkannya sebagai model paling mampu perusahaan hingga saat ini—sebuah tingkat di atas Opus. Tindak lanjutnya, Mythos Preview, ternyata sangat baik dalam keamanan siber sehingga tidak bisa dirilis.

 Menurut Anthropic, Mythos menemukan 271 kerentanan di Firefox selama pengujian Mozilla. Ini menjadi model AI pertama yang menyelesaikan simulasi serangan jaringan perusahaan berlangkah 32. Anthropic menguncinya di dalam Project Glasswing, sebuah koalisi yang diverifikasi yang terdiri dari sekitar 40 mitra, termasuk Microsoft, Apple, Amazon, dan NSA. Publik tidak pernah bisa menyentuhnya. Jadi Gomez mencoba memahami cara kerjanya. Tebakan utama OpenMythos adalah bahwa Mythos adalah Transformer Recurrent-Depth—juga disebut transformer berulang. Model standar menumpuk ratusan lapisan unik. Model berulang mengambil tumpukan yang lebih kecil dan menjalankannya melalui dirinya sendiri berkali-kali dalam satu langkah maju.

Dengan kata lain, bobot yang sama melewati lebih banyak iterasi. Pemikiran yang lebih dalam, dalam ruang laten kontinu, sebelum token apa pun dipancarkan. Repositori ini berargumen bahwa ini akan menjelaskan dua kualitas paling aneh dari Mythos: Ia mampu bernalar melalui masalah baru yang tidak bisa dipecahkan model lain, tetapi memorisasi dasarnya tidak merata. Itulah sidik arsitektur dari looping—komposisi daripada penyimpanan. OpenMythos mengutip Parcae, makalah dari April 2026 dari University of California San Diego dan Together AI yang menyelesaikan masalah ketidakstabilan lama dalam model berulang—model Parcae dengan 770 juta parameter cocok dengan transformer tetap kedalaman 1,3 miliar dari segi kualitas, dengan hukum skala yang dapat diprediksi untuk berapa banyak loop yang harus dijalankan. Repositori ini juga meminjam Multi-Latent Attention dari DeepSeek untuk mengompresi memori, dan pengaturan Mixture-of-Experts untuk menangani cakupan lintas domain. Apa yang tidak dimilikinya adalah bobot, jadi pada dasarnya ini adalah teknik tanpa pelaksana. OpenMythos bersifat teoretis. Kode mendefinisikan varian model dari 1 miliar hingga 1 triliun parameter, tetapi Anda harus melatihnya sendiri—file readme menunjuk ke skrip pelatihan 3 miliar parameter di FineWeb-Edu dan target 30 miliar token yang disesuaikan dengan Chinchilla, yang merupakan biaya komputasi yang bisa mencapai ratusan ribu dolar di H100. Belum ada yang melakukannya. Lalu mengapa ini penting? Karena ini adalah kali kedua dalam sebulan seseorang mengupas tembok di sekitar Mythos. Yang pertama adalah studi dari Vidoc Security, yang mereproduksi beberapa temuan kerentanan paling mengkhawatirkan dari Mythos menggunakan GPT-5.4 dan Claude Opus 4.6 dalam agen sumber terbuka. Tanpa akses Glasswing, dan dengan biaya kurang dari $30 per pemindaian. Sudut pandang berbeda, kesimpulan yang sama: Parit di sekitar Mythos mungkin lebih tipis dari yang dikatakan pemasaran. OpenMythos dan replikasi Vidoc melakukan pekerjaan berbeda. Vidoc mereproduksi keluaran Mythos—penemuan kerentanannya sendiri—menggunakan model yang ada. OpenMythos berusaha mereproduksi arsitekturnya—mesin sebenarnya yang menghasilkan keluaran tersebut. Satu mengatakan Anda tidak perlu Mythos untuk menemukan bug yang ditemukan Mythos. Yang lain mengatakan, akhirnya, Anda mungkin bisa membangun sesuatu seperti Mythos sendiri.

Anthropic hampir pasti tidak membagikan tebakan arsitektur Gomez secara publik, dan beberapa pilihan desain dalam OpenMythos adalah penyangkalan eksplisit—file readme memastikan untuk cukup samar agar pengguna tahu ini hanyalah sebuah pendekatan. Ia berulang kali mengatakan “kemungkinan,” “diduga,” dan “hampir pasti.” Mythos yang sebenarnya mungkin bukan transformer berulang sama sekali. Atau mungkin itu adalah yang dengan detail yang belum dibalikkan Gomez. Apa yang ditunjukkan OpenMythos adalah bahwa literatur penelitian sudah berisi sebagian besar bagian-bagiannya. Transformer berulang, Mixture of Experts, Multi-Latent Attention, Adaptive Computation Time, perbaikan stabilitas Parcae—semuanya bukan hak milik. Repositori ini, lebih dari apa pun, adalah inventarisasi dari apa yang secara publik diketahui tentang cara membangun model kelas Mythos. Repositori ini berlisensi MIT, dan sudah memiliki 2.700 cabang. Skrip pelatihan itu ada di sana, menunggu seseorang dengan kluster GPU dan tesis untuk membuktikan.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan