Tôi đã điều phối một cuộc thảo luận giữa Dwarkesh, Dr. Burry và John Clark (của Anthropic) về những bất đồng giữa những người hiểu biết hơn về AI, bao gồm tác động trong tương lai đến việc làm, liệu đây có phải là một bong bóng hay không, v.v. Cảm ơn Substack đã giúp điều này xảy ra.
Một sự bất đồng nhỏ là ở mức độ nào mà các LLM, mà đám đông này hoàn toàn đồng ý có thể làm những điều có giá trị thương mại, lại có những điểm yếu và dễ mắc lỗi theo những cách khó dự đoán. Đúng vậy! Con người cũng vậy. Và thật may mắn, chúng ta có những lỗi khác nhau.
Một điểm được Jack nhấn mạnh và là một trong những khoảng cách lớn nhất trong sự hiểu biết giữa những người được thông tin tốt và những người cần được thông tin tốt: khả năng của ngày hôm nay là một nền tảng chứ không phải là một giới hạn. Bất kỳ hệ thống tương lai nào cũng có thể chọn tham gia hoặc loại bỏ chúng.
Jack tóm tắt ngắn gọn cách mà LLMs đã tạo ra một sự đột phá mạnh mẽ so với quan niệm trước đây rằng chúng ta sẽ phát triển trí tuệ bằng cách xây dựng hàng trăm ngàn môi trường thử nghiệm, để các giải pháp điểm học cách chiến thắng một cách hẹp, sau đó ??? sự tổng quát ngụ ý trí tuệ.
Thay vào đó, chúng tôi đã xây dựng một công cụ *đáng chú ý* tổng quát về những gì được đưa vào một môi trường (“đặt nó vào một phòng với mọi tài liệu viết”) và sau đó, thứ mà nó tạo ra lại trở nên cực kỳ thành công khi bạn áp dụng nó vào các nhiệm vụ mới. Những năm tới có thể liên quan đến việc tạo ra các môi trường thử nghiệm.
Khi tôi quan sát: chúng tôi đã từng huấn luyện AIs chơi StarCraft. Tất cả các nỗ lực trong tương lai để làm điều này có thể giả định rằng hệ thống đã đọc Nghệ Thuật Chiến Tranh bằng tiếng Trung gốc, trừ khi kiến trúc sư tin rằng kiến thức đó sẽ làm bạn kém hơn trong việc ngăn chặn các cuộc tấn công zergling.
* Jack Clark, không phải John Clark. Xin lỗi, tôi lớn lên với việc đọc Tom Clancy. Một ngày nào đó họ sẽ có thể xem trước các tweet của tôi, và tôi sẽ vui mừng vì có ít sự xấu hổ hơn khi soạn thảo trên di động.
260