NEUER PODCAST! In dieser Episode von @greenpillnet bin ich mit @edelwax, dem Gründer des @meaningaligned Instituts, zusammen, um über Full Stack AI Alignment zu sprechen. Themen: Warum AI Alignment wichtig ist, Lektionen aus sozialen Medien, die Rolle von Anreizen und Institutionen sowie vier „Moonshots“ für Entwickler: Superverhandler, öffentliche Ressourcenregulierer, Marktintermediäre und Wertverwalter. Joe teilt eine hoffnungsvolle Vision von KI und Institutionen, die menschliche Integrität und Gedeihen fördern. 00:00 – Einführung in die neue Saison von Green Pill und Joe Edelman 01:59 – Joes Hintergrund und das Meaning Alignment Institute 03:43 – Warum Alignment für KI und Institutionen wichtig ist 05:46 – Lektionen aus sozialen Medien und der Aufmerksamkeitsökonomie 09:06 – Kritik an oberflächlichen Ansätzen zum AI Alignment (RLHF, Werte-als-Text) 13:20 – Dicke Modelle von Werten: tiefer gehen als abstrakte Ideale 15:11 – Full Stack Alignment über Modelle, Metriken und Institutionen hinweg 17:00 – Werte mit kapitalistischen Anreizstrukturen in Einklang bringen 19:17 – Dystopische Ökonomien vermeiden und wertorientierte Märkte aufbauen 21:32 – Vier Moonshots: Superverhandler, öffentliche Ressourcenregulierer, Marktintermediäre, Wertverwalter 27:32 – Intermediäre vs. Wertverwalter erklärt 29:09 – Wie Entwickler und Akademiker sich an Full Stack Alignment-Projekten beteiligen können 31:10 – Warum interinstitutionelle Zusammenarbeit entscheidend ist 32:46 – Joes Vision der Welt in 10 Jahren mit Full Stack Alignment 34:51 – Analogie zum Lebensmittelsystem: von „Zucker“ zu nährstoffreicher KI 36:40 – Langfristige vs. kurzfristige Anreize in Märkten 38:25 – Hoffnungsvolle Perspektive: Integrität in KI und Institutionen aufbauen 39:04 – Schlussbemerkungen und Links zu Joes Arbeit Schaut euch dieses Papier an: Abonniert den Podcast => @greenpillnet