Ik heb het gevoel dat @parmy en @frimelle een zeer belangrijke nuance in het debat over sycophantie introduceren met dit artikel. Ik weet zeker dat dit erg uitdagend is, vooral op de schaal van chatgpt, maar naar mijn mening is er een manier om conversatie-AI warm/empatisch/enigszins sycophantisch te houden terwijl er duidelijke grenzen en heroriëntaties worden gesteld wanneer dat nodig is (bijvoorbeeld wanneer beslissingen kritisch worden). Dit zijn twee verschillende conversatie-assen die beide kunnen worden verbeterd voor maximale positieve impact (zowel emotionele ondersteuning zonder de risico's te vergroten). Een goed voorbeeld daarvan in het echte leven zijn onze honden. Ze zijn zeer sycophantisch, maar hebben tegelijkertijd duidelijke grenzen/heroriëntaties (ik vertrouw niet op honden om te beslissen welke medicijnen ik moet nemen), wat super goed werkt. We zijn vroeg in deze onderwerpen, maar het zijn zeer belangrijke en interessante gesprekken om te hebben om de positieve impact van AI op de wereld te maximaliseren!
4,4K