Siento que @parmy y @frimelle están introduciendo un matiz muy importante en el debate sobre la adulación con este artículo. Estoy seguro de que esto es muy desafiante, especialmente a escala de chatgpt, pero en mi opinión, hay una manera de mantener la IA conversacional cálida / empática / de alguna manera aduladora mientras se establecen límites claros y redirecciones cuando sea necesario (por ejemplo, cuando las decisiones se vuelven críticas). Estos son dos ejes conversacionales diferentes que se pueden mejorar para lograr el máximo impacto positivo (ambos apoyo emocional sin amplificar los riesgos). Un buen ejemplo de eso en la vida real son nuestros perros. Son muy aduladores pero al mismo tiempo tienen límites/redirecciones claras (no confío en los perros para decidir qué medicamento tomar) lo que funciona súper bien. Estamos al principio de estos temas, pero hay conversaciones muy importantes e interesantes para maximizar el impacto positivo de la IA en el mundo.
4.56K