Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Oto moje notatki z wystąpień TED na TEDAI w Wiedniu 2025 (26 września 2025)
Sesja 1: Podstawa
Walter Werzowa (Artysta, Royal Society of Arts Fellowship, Recording Academy), Olivier Oullier (Inclusive Brains, Biotech Dental, MBZUAI)
- Wprowadzenie - Orkiestra, interfejs mózgowy, DJ, muzyk - Występ tłumaczący fale mózgowe na muzykę za pomocą AI
Shaden Alshammari (Badacz, MIT)
- Inspiracja tablicą okresową chemii dla ramy uczenia maszynowego
- Tablica okresowa uczenia maszynowego organizująca algorytmy, rozkłady i funkcje celu
- Podejście do uczenia reprezentacji łączące różne metody
- Nowy algorytm klasteryzacji obrazów poprawiający 60-letni algorytm klasteryzacji K-średnich
- Zmienne R i Q reprezentujące rzeczywiste relacje (z i bez adnotacji) oraz relacje wyuczone odpowiednio
- Struktura tablicy okresowej dla algorytmów uczenia maszynowego ujawniająca luki dla nowych metod
- Sygnał uczenia nadzorowanego przez wyuczone reprezentacje
Lukasz Kaiser (Badacz, OpenAI)
- Samochody autonomiczne - dlaczego nie jeżdżą wszędzie jak kierowcy taksówek?
- Dlaczego AI w leczeniu chorób jest tak trudne? Maszyny muszą uczyć się z mniejszej ilości danych
- Potężniejsze modele uczące się
- RNN - ślimak chodzący po słowach
- Transformatory - ślimak noszący plecak ze wszystkimi poprzednimi słowami
- Transformatory uczą się z mniejszej ilości danych
- Modele rozumowania/rozumujący - nadal noszą wszystkie słowa, ale także produkują własne słowa pomiędzy (w czasie testu), potrafią liczyć i myśleć w kontekście
- Badacze - potężne modele + uczące się, dowolne dane, dowolny czas testu, równoległość (już nie sekwencyjnie)
- Odkrycia naukowe, następny typ modeli
- Oś czasu - bliżej niż dalej, miesiące/rok, ale nie dekady; nie bardzo odległa przyszłość...

Najlepsze
Ranking
Ulubione