Dưới đây là ghi chú của tôi từ các buổi TED talk tại TEDAI Vienna 2025 (ngày 26 tháng 9 năm 2025) Phiên 1: Nền tảng Walter Werzowa (Nghệ sĩ, Học viện Nghệ thuật Hoàng gia, Học viện Ghi âm), Olivier Oullier (Inclusive Brains, Biotech Dental, MBZUAI) - Giới thiệu - Dàn nhạc, giao diện não, DJ, nhạc sĩ - Buổi biểu diễn chuyển đổi sóng não thành âm nhạc thông qua AI Shaden Alshammari (Nhà nghiên cứu, MIT) - Bảng tuần hoàn hóa học là nguồn cảm hứng cho khung máy học - Bảng tuần hoàn máy học tổ chức các thuật toán, phân phối và hàm mục tiêu - Phương pháp học đại diện kết nối các phương pháp khác nhau - Thuật toán phân cụm hình ảnh mới cải thiện thuật toán phân cụm K-means đã 60 năm tuổi - Các biến R và Q đại diện cho các mối quan hệ thực (có và không có chú thích) và các mối quan hệ đã học tương ứng - Cấu trúc bảng tuần hoàn cho các thuật toán máy học tiết lộ các khoảng trống cho các phương pháp mới - Tín hiệu học có giám sát thông qua các đại diện đã học Lukasz Kaiser (Nhà nghiên cứu, OpenAI) - Xe tự lái - tại sao chúng không lái khắp nơi như tài xế taxi? - Tại sao AI để chữa bệnh lại khó khăn như vậy? Máy móc cần học từ ít dữ liệu hơn - Các mô hình có thể học mạnh mẽ hơn - RNNs - ốc sên đi quanh các từ - Transformers - ốc sên mang ba lô với tất cả các từ trước đó - Transformers học từ ít dữ liệu hơn - Các mô hình lý luận/người lý luận - vẫn mang theo tất cả các từ, nhưng cũng sản xuất ra các từ của riêng mình ở giữa (thời gian kiểm tra), có thể làm toán và suy nghĩ trong ngữ cảnh - Các nhà nghiên cứu - các mô hình mạnh mẽ + dữ liệu có thể học, dữ liệu tùy ý, thời gian kiểm tra tùy ý, song song (không còn tuần tự nữa) - Các phát hiện khoa học, loại mô hình tiếp theo - Thời gian - gần hơn chứ không phải xa hơn, vài tháng/một năm nhưng không phải hàng thập kỷ; không phải tương lai quá xa...