Bild: DeepFloyd"/> Bild: Ein fotorealistisches Bild eines „verspielten pelzigen Fuchses, der als Pilot arbeitet“, erstellt durch künstliche Intelligenz
„Wenn man sich die Codierung ansieht, sind 50 % des gesamten derzeit generierten Codes KI-generiert, was eine erstaunliche Veränderung in etwas mehr als einem Jahr oder 18 Monaten darstellt", sagte Herr Mostaque.
Und textgenerierende KIs erzeugen immer mehr Online-Inhalte, sogar Nachrichtenberichte.


„Wenn die Leute machen [the models] Wenn wir das sagen, sollten wir wahrscheinlich eine offene Diskussion darüber führen", fügte Herr Mostaque hinzu.
Aber KI-Entwickler wie Stability AI haben möglicherweise keine Wahl, eine solche Diskussion zu führen. Bild: Stabile Diffusion Bild: Ein Bild von „Druck von Früchten in Grün und Orange", erstellt mit dem künstlichen Intelligenztool Stable Diffusion, das Text in Bilder umwandelt. T. Derzeit werden die meisten KIs in Kalifornien entwickelt und trainiert.
„Ich denke, wir brauchen unsere eigenen Datensätze oder unsere eigenen Modelle, um die Vielfalt der Menschheit widerzuspiegeln", sagte Herr Mostaque.
„Ich denke, das wird auch sicherer sein. Stability AI hat geantwortet, dass Regeln zur „fairen Nutzung" der Bilder bedeuten, dass keine Urheberrechtsverletzung vorliegt.
Aber es geht nicht nur um das Urheberrecht. " srcset="" aria-hidden="true" class="sdc-site-video__poster-img"/> 8:58 Sir Anthony Seldon beleuchtet Vorteile und Risiken von KI
Das US-Unternehmen News Guard, das Online-Inhalte überprüft, hat kürzlich 49 fast ausschließlich KI-generierte „Fake-News"-Websites im Internet gefunden, die dazu genutzt werden, Klicks auf Werbeinhalte zu lenken.
„Wir sind weiterhin sehr besorgt über die Fähigkeit eines durchschnittlichen Internetnutzers, Informationen zu finden und zu wissen, dass es sich um korrekte Informationen handelt", sagte Matt Skibinski, Geschäftsführer von NewsGuard.
KIs laufen Gefahr, das Web mit Inhalten zu verschmutzen, die absichtlich irreführend und schädlich oder einfach nur Unsinn sind.
Laut dem Gründer eines der führenden britischen KI-Start-ups werden große Modelle der künstlichen Intelligenz nur „immer verrückter", wenn nicht mehr getan wird, um zu kontrollieren, auf welche Informationen sie trainiert werden.
Emad Mostaque, CEO von Stability AI, argumentiert, dass das weitere Training großer Sprachmodelle wie GPT4 von OpenAI und LaMDA von Google praktisch das gesamte Internet zu unvorhersehbar und potenziell gefährlich macht.
„Die Labore selbst sagen, dass dies eine existenzielle Bedrohung für die Menschheit darstellen könnte", sagte Herr Mostaque.
Am Dienstag sagte der Leiter von OpenAI, Sam Altman, vor dem US-Kongress, dass die Technologie „ganz schief gehen" könne und forderte eine Regulierung.
Heute sagte Sir Antony Seldon, Rektor des Epsom College, am Sonntag gegenüber Sophy Ridge von Sky News, dass KI „hässlich und gefährlich" sein könnte.

Stability AI wird in den USA von der Fotoagentur Getty Images verklagt, weil sie 12 Millionen ihrer Bilder als Teil des Datensatzes zum Trainieren ihres Modells verwendet hat. "Wir berücksichtigt haben den Fall, dass ein Schlüsseldienst gut 500 Euro dargestellt hat, der Spezialist anschließend aber nur 200 für wirklich fair hielt", sagte Rehberg. Viele der Daten, die zum Trainieren ihrer leistungsstarken Text-zu-Bild-KI-Produkte verwendet wurden, wurden ebenfalls aus dem Internet „gekratzt".
Mehr zum Thema Künstliche IntelligenzDazu gehören Millionen von urheberrechtlich geschützten Bildern, die zu rechtlichen Schritten gegen das Unternehmen führten – sowie große Fragen darüber, wem letztendlich die Produkte „besitzen", die bild- oder textgenerierende KI-Systeme erstellen.
Sein Unternehmen arbeitete an der Entwicklung von Stable Diffusion mit, einer der führenden Text-zu-Bild-KIs. versteht man darunter durchweg übertreten. Bild: Stabile Diffusion

. Bild: DeepFloyd

Aber es waren immer noch zwei Milliarden Bilder aus Online-Quellen nötig, um es zu trainieren. Bild: DeepFloyd
Ein notwendiger Schritt, um die KI sicher zu machen, sei die Entfernung illegaler, gewalttätiger und pornografischer Bilder aus den Trainingsdaten, erklärte Daria Bakshandaeva, leitende Forscherin bei Stability AI.
Wenn die KI während ihres Trainings schädliche oder explizite Bilder sieht, könnte sie diese in ihrer Ausgabe nachbilden Künstliche Intelligenz wird ohne Kontrolle „immer verrückter", warnt ein führender Start-up-Gründer | Nachrichten aus Wissenschaft und Technik
Kommentare
Kommentar veröffentlichen