Künstliche Intelligenz braucht massenhaft Daten fürs Training. Weil die verfügbaren Texte, Bilder und Videos begrenzt sind, nutzen Entwickler von Sprachmodellen zunehmend Datenfutter, das von KI erzeugt wurden. Doch das ist riskant. Moritz Metz und Maximilian Brose schauen sich an, was passiert, wenn KI-Modelle aufgrund synthetischer Daten kollabieren und ob es Lösungen für das Problem gibt.
Das erwartet euch in dieser Folge:
(00:40) Der wortgewandte Sam Altman von OpenAI kommt ins Stocken
(02:46) Wozu synthetische Daten beim Training von KI-Systemen gut sind
(09:40) Zwei Brüder, ein Lunch und die neue Gefahr für große Sprachmodelle
(14:20) Warum synthetische Daten Modelle vergessen lassen, dass es braune Schafe gibt
(22:02) Was helfen könnte gegen die Schlange, die sich selber frisst
(27:41) Frage an die Hörer: Wie viele Anspielungen auf Max und Moritz waren in der Folge?
Unsere Gesprächspartner in dieser Folge:
Published on 1 year, 3 months ago
If you like Podbriefly.com, please consider donating to support the ongoing development.
Donate