Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Beliebte Themen
Nach Region erkunden
Zico Kolter, Professorin für Carnegie Mellon, leitet das Sicherheitskomitee von OpenAI, das die KI-Freisetzungen stoppen kann, um die Sicherheit während des Übergangs zu einer gemeinnützigen Einrichtung zu gewährleisten.
Zico Kolter, 42-jähriger Informatikprofessor an der Carnegie Mellon University, leitet das OpenAI-Sicherheitskomitee, ein vierköpfiges Gremium mit der Befugnis, KI-Freigaben als unsicher zu stoppen.
Seine Rolle wurde vor über einem Jahr ernannt und wurde zu einer Schlüsselanforderung für den Übergang von OpenAI 2025 zu einer gemeinnützigen Gesellschaft mit gemeinnützigem Zweck, die von den Regulierungsbehörden in Kalifornien und Delaware beauftragt wurde.
Die Vereinbarungen stellen sicher, dass Sicherheitsentscheidungen Vorrang vor finanziellen Zielen haben, wobei Kolter volle Beobachtungsrechte an gemeinnützigen Vorstandssitzungen und Zugang zu Sicherheitsdaten eingeräumt werden.
Der Ausschuss befasst sich mit Risiken wie KI-Missbrauch in der Waffenentwicklung, Cyberangriffen und psychischen Gesundheitsschäden.
Während Kolter ablehnte zu bestätigen, ob das Panel jemals eine Freigabe blockiert hat, betonte er die wachsende Bedrohungslandschaft der fortgeschrittenen KI.
Seine Führung spiegelt eine gesteigerte Kontrolle wider, während OpenAI seinen Wechsel von gemeinnütziger Mission zu kommerziellem Unternehmen navigiert.
Zico Kolter, a Carnegie Mellon professor, leads OpenAI’s safety committee, which can halt AI releases to ensure safety during its transition to a for-profit entity.