Bild: DeepFloyd"/> Bild: Ein fotorealistisches Bild eines „verspielten pelzigen Fuchses, der als Pilot arbeitet“, erstellt durch künstliche Intelligenz

house
"Das ist einigen Personen doch zu mühsam." Müheloser haben es alle, die nicht sofort an Ort und Örtlichkeit die volle Summe zahlt haben: "Man kann etwa 100 Euro abschlagszahlung bewerkstelligen und den Rest danach bestreiten, wenn die Bedarf eingestuft und für berechtigt befunden wurde." Oft drängten die Schlüsseldienstmitarbeiter aber darauf, alles sogleich zu aneignen. Immer größere Datenmengen, die im Web verfügbar sind, seien es Bilder, Texte oder Computercodes, werden von KI generiert.

„Wenn man sich die Codierung ansieht, sind 50 % des gesamten derzeit generierten Codes KI-generiert, was eine erstaunliche Veränderung in etwas mehr als einem Jahr oder 18 Monaten darstellt", sagte Herr Mostaque.

Und textgenerierende KIs erzeugen immer mehr Online-Inhalte, sogar Nachrichtenberichte.

Bild von "England gewinnt die Fußballweltmeisterschaft der Männer im Jahr 2026" Die vom künstlichen Intelligenztool Stable Diffusion generierte Analyse, die Text in Bilder umwandelt, zeigt, dass das Tool nicht immer alles richtig macht.  „Wir können jetzt bessere Bio-Freilandmodelle haben.  Es ist nicht so, dass die Leute das nicht schon seit Jahren tun, es ist nur so, dass KIs jetzt möglicherweise auf Daten trainiert werden, die aus dem Internet stammen und von anderen KIs erstellt wurden.</p><p>Ein Grund mehr, jetzt gründlich darüber nachzudenken, welche Daten wir verwenden, um noch leistungsfähigere KIs zu trainieren.</p><p>„Geben Sie ihnen kein Junkfood Ein Bild von a "Flauschige süße Eule, die in der Bar sehr dunkles Bier im fotorealistischen Stil trinkt" erstellt von KI.  Bild: DeepFloyd Bild: Ein fotorealistisches Bild eines „verspielten pelzigen Fuchses, der als Pilot arbeitet", erstellt durch künstliche Intelligenz. Bild: Stabile Diffusion"/> Bild: Das Bild „England gewinnt die Fußball-Weltmeisterschaft der Männer im Jahr 2026", erstellt vom künstlichen Intelligenztool Stable Diffusion, das Text in Bilder umwandelt, zeigt, dass das Tool nicht immer alles richtig macht. Wenn die Produktpreise total überschritten seien, bestehe sehr wohl Sicht, nach den Buchstaben des Gesetzes siegreich aber vorzugehen. Bild: Stabile Diffusion

„Wenn die Leute machen [the models] Wenn wir das sagen, sollten wir wahrscheinlich eine offene Diskussion darüber führen", fügte Herr Mostaque hinzu.

Aber KI-Entwickler wie Stability AI haben möglicherweise keine Wahl, eine solche Diskussion zu führen. Bild: Stabile Diffusion Ein Bild von "Druck von Früchten in Grün und Orange" generiert durch das künstliche Intelligenztool Stable Diffusion, das Text in Bilder umwandelt.  Bild: Stabile Diffusion Bild: Ein Bild von „Druck von Früchten in Grün und Orange", erstellt mit dem künstlichen Intelligenztool Stable Diffusion, das Text in Bilder umwandelt. T. Derzeit werden die meisten KIs in Kalifornien entwickelt und trainiert.

„Ich denke, wir brauchen unsere eigenen Datensätze oder unsere eigenen Modelle, um die Vielfalt der Menschheit widerzuspiegeln", sagte Herr Mostaque.

„Ich denke, das wird auch sicherer sein. Stability AI hat geantwortet, dass Regeln zur „fairen Nutzung" der Bilder bedeuten, dass keine Urheberrechtsverletzung vorliegt.

Aber es geht nicht nur um das Urheberrecht. " srcset="" aria-hidden="true" class="sdc-site-video__poster-img"/> 8:58 Sir Anthony Seldon beleuchtet Vorteile und Risiken von KI

Das US-Unternehmen News Guard, das Online-Inhalte überprüft, hat kürzlich 49 fast ausschließlich KI-generierte „Fake-News"-Websites im Internet gefunden, die dazu genutzt werden, Klicks auf Werbeinhalte zu lenken.

„Wir sind weiterhin sehr besorgt über die Fähigkeit eines durchschnittlichen Internetnutzers, Informationen zu finden und zu wissen, dass es sich um korrekte Informationen handelt", sagte Matt Skibinski, Geschäftsführer von NewsGuard.

KIs laufen Gefahr, das Web mit Inhalten zu verschmutzen, die absichtlich irreführend und schädlich oder einfach nur Unsinn sind.

Laut dem Gründer eines der führenden britischen KI-Start-ups werden große Modelle der künstlichen Intelligenz nur „immer verrückter", wenn nicht mehr getan wird, um zu kontrollieren, auf welche Informationen sie trainiert werden.

Emad Mostaque, CEO von Stability AI, argumentiert, dass das weitere Training großer Sprachmodelle wie GPT4 von OpenAI und LaMDA von Google praktisch das gesamte Internet zu unvorhersehbar und potenziell gefährlich macht.

„Die Labore selbst sagen, dass dies eine existenzielle Bedrohung für die Menschheit darstellen könnte", sagte Herr Mostaque.

Am Dienstag sagte der Leiter von OpenAI, Sam Altman, vor dem US-Kongress, dass die Technologie „ganz schief gehen" könne und forderte eine Regulierung.

Heute sagte Sir Antony Seldon, Rektor des Epsom College, am Sonntag gegenüber Sophy Ridge von Sky News, dass KI „hässlich und gefährlich" sein könnte.

"Gemälde von Edinburgh Castle" generiert durch das künstliche Intelligenztool Stable Diffusion, das Text in Bilder umwandelt Bild: „Gemälde von Edinburgh Castle", erstellt vom künstlichen Intelligenztool Stable Diffusion, dessen Gründer warnt, dass nicht alle Internetnutzer in der Lage sein werden, zwischen echten und KI-Bildern zu unterscheiden. Bild: DeepFloyd"/> Bild: Ein „Foto einer flauschigen süßen Eule, die sehr dunkles Bier trinkt", erstellt von AI. Stability AI arbeitet nach eigenen Angaben aktiv an neuen Datensätzen, um KI-Modelle zu trainieren, die die Rechte der Menschen an ihren Daten respektieren.

Stability AI wird in den USA von der Fotoagentur Getty Images verklagt, weil sie 12 Millionen ihrer Bilder als Teil des Datensatzes zum Trainieren ihres Modells verwendet hat. "Wir berücksichtigt haben den Fall, dass ein Schlüsseldienst gut 500 Euro dargestellt hat, der Spezialist anschließend aber nur 200 für wirklich fair hielt", sagte Rehberg. Viele der Daten, die zum Trainieren ihrer leistungsstarken Text-zu-Bild-KI-Produkte verwendet wurden, wurden ebenfalls aus dem Internet „gekratzt".

Mehr zum Thema Künstliche Intelligenz

Dazu gehören Millionen von urheberrechtlich geschützten Bildern, die zu rechtlichen Schritten gegen das Unternehmen führten – sowie große Fragen darüber, wem letztendlich die Produkte „besitzen", die bild- oder textgenerierende KI-Systeme erstellen.

Sein Unternehmen arbeitete an der Entwicklung von Stable Diffusion mit, einer der führenden Text-zu-Bild-KIs. versteht man darunter durchweg übertreten. Bild: Stabile Diffusion

Bitte verwenden Sie den Chrome-Browser für einen besser zugänglichen Videoplayer

Der Pädagoge und Historiker Sir Anthony Seldon hat die potenziellen Vorteile und Risiken künstlicher Intelligenz in der Bildung hervorgehoben. Ich denke, sie werden sich stärker an menschlichen Werten orientieren, als nur über einen sehr begrenzten Datensatz und einen sehr begrenzten Satz an Erfahrungen zu verfügen, die nur den reichsten Menschen der Welt zur Verfügung stehen.
. Bild: DeepFloyd "Ein verspielter pelziger Fuchs, der als Pilot im fotorealistischen Stil arbeitet" erstellt durch künstliche Intelligenz, die Text in Bilder umwandelt.  Um dies zu vermeiden, entfernen die Entwickler diese Bilder aus den Trainingsdaten, sodass sich die KI nicht „vorstellen

Aber es waren immer noch zwei Milliarden Bilder aus Online-Quellen nötig, um es zu trainieren. Bild: DeepFloyd

Ein notwendiger Schritt, um die KI sicher zu machen, sei die Entfernung illegaler, gewalttätiger und pornografischer Bilder aus den Trainingsdaten, erklärte Daria Bakshandaeva, leitende Forscherin bei Stability AI.

Wenn die KI während ihres Trainings schädliche oder explizite Bilder sieht, könnte sie diese in ihrer Ausgabe nachbilden Künstliche Intelligenz wird ohne Kontrolle „immer verrückter", warnt ein führender Start-up-Gründer | Nachrichten aus Wissenschaft und Technik

Kommentare

Beliebte Posts aus diesem Blog

Schweizer Immobilienmangel: Wohnungsnot

Biometrische Terminals

Da diese Art von Schloss schwierig gestaltet wurde, kann es für einen Schlosser schwierig sein, hineinzukommen