Ein offener Brief, der von Hunderten von Führungskräften aus der Technologiewelt unterzeichnet wurde, darunter Steve Wozniak, der Mitbegründer von Apple, und Elon Musk, hat vorgeschlagen, die Entwicklung jeder KI über die Fähigkeiten von OpenAIs GPT-4 hinaus zu unterbrechen.
Sie äußerten ihre Besorgnis darüber, dass KI-Labore in einen „außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer mächtigerer digitaler Köpfe verwickelt sind, die niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig kontrollieren kann".
Der britische Technologieredakteur des Guardian, Alex Hern, erklärt Hannah Moore, woher diese Bedenken kommen.
„Sie werden bereits gesehen haben, wie schnell die Fähigkeiten dieser hochmodernen künstlichen Intelligenz schnell zunehmen, und das bedeutet, dass externe Menschen die eigentliche Arbeit erledigen müssen", sagt Hern zu Moore. Aber wir brauchen unsere Leser zunehmend, um unsere Arbeit zu finanzieren.
Unterstützen Sie den Wächter . Und wir wollen unseren Journalismus offen und für alle zugänglich halten. „Eine Befürchtung ist, dass Sie, sobald Sie eine KI haben, die die Geschwindigkeit der KI-Forschung erheblich verbessern kann, in wenigen Jahren oder vielleicht sogar Monaten von etwas, das GPT-4 ist, zu superintelligent werden."
Unterstützen Sie den Wächter
The Guardian ist redaktionell unabhängig.
In den letzten Jahrzehnten haben wir gesehen, wie das Internet und das Smartphone unser Leben rasant verändert haben Gerät künstliche Intelligenz außer Kontrolle? – Podcast | Nachricht
Kommentare
Kommentar veröffentlichen