Jeg føler at @parmy og @frimelle introduserer en veldig viktig nyanse i sykofanidebatten med denne artikkelen. Jeg er sikker på at dette er veldig utfordrende, spesielt på chatgpt-skala, men etter min mening er det en måte å holde samtale-AI varm/empatisk/på en eller annen måte sykofantisk mens du setter klare grenser og omdirigeringer når det er nødvendig (for eksempel når beslutninger blir kritiske). Dette er to forskjellige samtaleakser som begge kan forbedres for maksimal positiv innvirkning (begge emosjonell støtte uten å forsterke risikoen). Et godt eksempel på det i det virkelige liv er hundene våre. De er veldig sykofantiske, men har samtidig klare grenser/omdirigeringer (jeg er ikke avhengig av hunder for å bestemme hvilken medisin de skal ta) som fungerer superbra. Vi er tidlig ute med disse temaene, men veldig viktige og interessante samtaler å ha for å maksimere den positive effekten av AI på verden!
4,31K