KI-Update kompakt: Nightshade, Meta, Google, OpenAI

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 6 Min.
Von
  • The Decoder
Inhaltsverzeichnis

Ein neues Tool namens Nightshade ermöglicht Künstlern, ihre Werke so zu verändern, dass sie das Training von KI-Systemen wie Bildgeneratoren potenziell beeinträchtigen, ohne dass Menschen diese Veränderungen erkennen. Nightshade basiert auf seinem Vorgänger Glaze, der Bilder so manipuliert, dass sie für KI-Modelle nutzlos, aber für das menschliche Auge unverändert erscheinen.

Nightshade geht noch einen Schritt weiter, indem es etwa ein Hunde-Bild in ein Katzen-Bild verwandelt, das für Menschen jedoch weiterhin wie ein Hund aussieht. Crawler, die Trainingsdaten sammeln, erkennen jedoch die veränderten Bilder und verknüpfen sie mit den ursprünglichen Beschriftungen, Metadaten und dem Kontext. Das führt dazu, dass KI-Modelle, die mit den veränderten Daten trainiert wurden, möglicherweise falsche Ergebnisse liefern.

Die Entwickler von Nightshade betonen jedoch, dass eine große Menge vergifteter Trainingsdaten erforderlich ist, um signifikante Auswirkungen auf KI-Modelle zu haben.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Das Stanford Institute for Human-Centered Artificial Intelligence führte eine Studie durch, um herauszufinden, ob offene KI-Modelle wie Open Foundation Models (OFMs) größere Risiken aufweisen als geschlossene Modelle wie GPT-4. Dabei wurden Risiken in den Bereichen Desinformation, Biorisiken, Cybersicherheit, Spear-Phishing, nicht einvernehmliche intime Bilder und Kindermissbrauchsbilder untersucht.

Die Studie kommt zu dem Schluss, dass es aktuell nur begrenzte Belege für ein erhöhtes Risiko von OFMs im Vergleich zu geschlossenen Modellen oder bestehenden Technologien gibt. Die Autoren warnen vor einer Überregulierung von Open-Source-Modellen und raten politischen Entscheidungsträgern, mögliche unbeabsichtigte Auswirkungen der KI-Regulierung auf das Innovationsökosystem rund um OFMs zu berücksichtigen.

Offene KI-Modelle, so die Forscher, weisen keine größeren Risiken als geschlossene Modelle wie GPT-4 auf. Tatsächlich bieten sie sogar Vorteile, indem sie Wettbewerb fördern, Innovationen beschleunigen und die Machtverteilung verbessern. Dennoch sollten einige Risiken weiterhin untersucht werden.

Wissenschaftler von Meta und der New York University arbeiten an $(LEhttps://the-decoder.de/metas-self-rewarding-language-models-sollen-menschliches-feedback-ueberfluessig-machen/%20:, die sich eigenständig optimieren können. Im Unterschied zu herkömmlichen Ansätzen wie dem in GPT-4 verwendeten Reinforcement Learning mit Human Feedback, die auf Menschen angewiesen sind, können selbstbelohnende Modelle sich selbst evaluieren und verbessern.

In ersten Experimenten übertraf eine mit dieser Methode trainierte Version von Llama 2 70B GPT-4 0613 in einem vom Team gewählten Benchmark und schnitt besser ab als Google Gemini Pro und Anthropics Claude 2. Weitere Studien sind jedoch nötig, um die Leistung in der Praxis zu beurteilen. Das Team will zudem mögliche Anfälligkeiten für "Reward-Hacking" untersuchen, bei dem das Modell Schwächen im Belohnungssystem ausnutzt, um höhere Belohnungen zu erzielen, ohne sich in der eigentlichen Aufgabe zu verbessern.

Die Forscher wollen mit selbstbelohnenden Modellen eine zentrale Einschränkung von menschlichem Feedback überwinden: die Begrenzung durch menschliche Urteilskraft und Perspektive. Ihr Ziel ist es, den Modellen beizubringen, sich selbstständig zu bewerten und zu optimieren, möglicherweise sogar über das durch menschliches Feedback erreichbare Niveau hinaus.

Google hat in einem internen Dokument seine ambitionierten Unternehmensziele für 2024 formuliert, wobei Künstliche Intelligenz eine zentrale Rolle spielt. Das Unternehmen plant, die "fortschrittlichste, sicherste und verantwortungsvollste KI der Welt" zu entwickeln.

Aktuell integriert Google KI-Technologien in bestehende Produkte wie Business-Apps, Pixel-Smartphones und generative Suche, und testet den Chatbot Bard. Allerdings hat Google bisher kein so erfolgreiches KI-Produkt wie ChatGPT hervorgebracht.

Ein weiteres Ziel des Unternehmens ist die Verbesserung von Geschwindigkeit, Effizienz und Produktivität sowie die Erzielung nachhaltiger Kosteneinsparungen. Das deutet auf mögliche weitere Entlassungswellen bei dem Technologiekonzern hin. Seit Anfang Januar sollen bereits tausende Angestellte in verschiedenen Bereichen entlassen worden sein.

OpenAI-CEO Sam Altman sammelt neue Investitionen für ein weltweites Netzwerk aus Halbleiterfabriken in einem sogenannten "Chip-Venture". Altman führte Gespräche mit mehreren großen potenziellen Investoren, um die benötigten finanziellen Mittel für die Chip-Fabriken zu beschaffen. Das Projekt würde eine Zusammenarbeit mit führenden Chipherstellern erfordern und global aufgestellt sein.

Chipherstellung ist teuer und benötigt sowohl erhebliche natürliche Ressourcen als auch Milliarden US-Dollar an Finanzmitteln. Die Kosten für die Chipproduktion sind mit dem technologischen Fortschritt gestiegen. Zu den Unternehmen, mit denen Altman Gespräche führte, gehören das KI-Unternehmen G42 aus den Vereinigten Arabischen Emiraten und die Softbank-Gruppe aus Japan. Die Gespräche befinden sich noch in einem frühen Stadium und eine vollständige Liste der beteiligten Partner und Geldgeber ist bisher nicht verfügbar.

Die Gespräche mit G42, mit denen OpenAI im Oktober 2021 eine Partnerschaft zur Entwicklung von KI-Chips einging, drehten sich um eine Investition von 8 bis 10 Milliarden Dollar. Der aktuelle Status der Gespräche ist jedoch unklar. Weitere potenzielle Partner für OpenAI könnten Intel, TSMC und Samsung sein, die bisher jedoch nicht auf Anfragen reagiert haben. Microsoft hat einen Kommentar explizit abgelehnt.

Französische Abgeordnete empfehlen Änderungen an der EU-Urheberrechtsrichtlinie, um generative KI-Technologien angemessen zu berücksichtigen und regelmäßige Überprüfungen des EU AI Acts durchzuführen.

Ein Ausschuss der französischen Nationalversammlung thematisiert Fragen zur Identifizierung von Originalwerken, Zuordnung von KI-generierten Werken, Vergütung von Urhebern und Ausschluss von Künstlern, die die Verwendung ihrer Inhalte durch KI ablehnen. Die Abgeordneten schlagen vor, Frankreichs diplomatischen Einfluss für die Ausarbeitung eines internationalen KI-Abkommens einzusetzen und die Finanzierung von KI-Start-ups in frühen Phasen zu vereinfachen.

Die EU-Urheberrechtsrichtlinie trat im April 2019 in Kraft, bevor ChatGPT veröffentlicht wurde. Seitdem führten Fragen zu Trainingsdaten und Urheberrecht zu zahlreichen Debatten und Klagen, wie der Klage der New York Times gegen OpenAI. Die vorgeschlagenen Änderungen könnten helfen, die rechtlichen Folgen generativer KI für geistiges und gewerbliches Eigentum besser zu erfassen.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

(igr)