Der Mitbegründer von Ethereum #VitalikButerin hat ernsthafte Bedenken hinsichtlich der rasanten Fortschritte in der künstlichen Intelligenz geäußert und die potenziellen Risiken hervorgehoben, die von superintelligenten KI-Systemen ausgehen. Während sich die KI-Entwicklung beschleunigt, betont Buterin die Wichtigkeit der Implementierung robuster Sicherheitsvorkehrungen, um die Möglichkeit katastrophaler Ergebnisse zu mindern. Seine jüngsten Erkenntnisse, die in einem Blogbeitrag vom 5. Januar geteilt wurden, unterstreichen die Notwendigkeit proaktiver Maßnahmen, um potenziellen Schaden durch KI-Technologie entgegenzuwirken.
In seinem Beitrag führt Buterin das Konzept der "𝐝𝐞𝐟𝐞𝐧𝐬𝐢𝐯𝐞𝐧 𝐚𝐜𝐜𝐞𝐥𝐞𝐫𝐚𝐭𝐢𝐨𝐧" (d/acc) ein und plädiert für eine Technologieentwicklung, die auf Schutz statt Zerstörung fokussiert ist. Er warnt, dass Superintelligenz – KI, die die menschliche Intelligenz übertrifft – in den nächsten Jahren entstehen könnte, was die menschliche Existenz bedrohen könnte. "Es ist zunehmend wahrscheinlich, dass wir ein drei Jahre dauerndes Fenster haben, bis Künstliche Allgemeine Intelligenz (AGI) eintrifft und weitere drei Jahre, bis die Superintelligenz folgt. Um irreversible Katastrophen zu vermeiden, müssen wir nicht nur positive Fortschritte beschleunigen, sondern auch die negativen eindämmen", schrieb Buterin. Seine Vision umfasst die Schaffung dezentraler KI-Systeme, die menschliche Kontrolle priorisieren und sicherstellen, dass KI der Menschheit dient, anstatt sie zu gefährden.
Buterin hebt auch die Risiken hervor, die mit militärischen Anwendungen von KI verbunden sind, und nennt aktuelle globale Konflikte wie die in der Ukraine und im Gazastreifen als Beispiele für ihren wachsenden Einsatz im Krieg. Er warnt, dass militärische Ausnahmen von KI-Vorschriften diese Gefahren verstärken könnten, was Militärs zu wichtigen Mitverursachern potenzieller KI-gesteuerter Katastrophen macht. Um solche Risiken anzugehen, schlägt Buterin eine mehrgleisige Strategie zur Regulierung der KI-Nutzung vor. Dazu gehört, die Nutzer für die Art und Weise, wie KI-Systeme eingesetzt werden, verantwortlich zu machen, "𝐬𝐨𝐟𝐭 𝐩𝐚𝐮𝐬𝐞"-Mechanismen zu implementieren, um Fortschritte vorübergehend zu verlangsamen, und KI-Hardware durch spezialisierte Chips zu kontrollieren. Diese Chips müssten wöchentliche Genehmigungen von mehreren internationalen Organisationen erhalten, wobei mindestens eine nicht-militärisch sein muss, um einen verantwortungsvollen Betrieb sicherzustellen.
Während Buterin anerkennt, dass seine vorgeschlagenen Maßnahmen nicht ohne Mängel sind, betrachtet er sie als wesentliche Zwischenlösungen. Indem er die dualen Herausforderungen anspricht, nützliche KI-Anwendungen zu beschleunigen und schädliche einzuschränken, unterstreicht Buterin die Dringlichkeit globaler Zusammenarbeit, um die Zukunft der Menschheit im Zeitalter superintelligenter KI zu sichern.