Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jorge Bravo Abad
Professore di Fisica @UAM_Madrid | Professore. PI del laboratorio AI for Materials | Direttore del laboratorio AI for Materials.
Apprendimento automatico per prevedere quali MOF possono effettivamente essere realizzati in laboratorio
I framework metal-organici (MOF) sono tra i materiali più sintonizzabili mai creati: cristalli porosi assemblati da nodi metallici e leganti organici, con applicazioni che vanno dallo stoccaggio di gas alla catalisi. A livello computazionale, possiamo generare trilioni di possibili strutture. Il problema è che quasi nessuna di esse viene sintetizzata. Di migliaia di screening di MOF pubblicati fino ad oggi, solo una dozzina ha portato a una reale sintesi in laboratorio, e anche in quel caso, i chimici tendono a scegliere design "sicuri" che somigliano a strutture conosciute piuttosto che a quelle ottimali dal punto di vista computazionale.
Andre Niyongabo Rubungo e i coautori affrontano questo collo di bottiglia con tre ingredienti: (1) MOFMinE, un dataset recentemente curato di quasi un milione di MOF con energie di deformazione simulate e energie libere per un sottoinsieme di 65.000 strutture; (2) MOFSeq, una rappresentazione sequenziale che codifica sia le caratteristiche locali (SMILES dei blocchi costitutivi) sia le caratteristiche globali (topologia e connettività); e (3) LLM-Prop, un modello linguistico con 35 milioni di parametri pre-addestrato sui dati abbondanti di energia di deformazione, poi affinato sui calcoli di energia libera più costosi.
I risultati sono sorprendenti: un errore assoluto medio di 0.789 kJ/mol, il 97% di accuratezza nella previsione della sintetizzabilità e il 78% di accuratezza nella selezione del corretto polimorfo tra strutture concorrenti. Anche quando due polimorfi differiscono solo di 0.16 kJ/mol, il modello sceglie comunque quello giusto oltre il 60% delle volte.
L'implicazione è pratica: ciò che una volta richiedeva giorni di simulazione molecolare ora richiede un passaggio diretto attraverso una rete neurale. Questo apre un percorso per filtrare regolarmente gli screening computazionali di MOF in base alla sintetizzabilità prevista, permettendo agli sperimentatori di avventurarsi oltre i design "intuitivi" in regioni inesplorate dello spazio chimico, migliorando comunque le probabilità che ciò che sembra buono al computer possa effettivamente essere realizzato in laboratorio.
Articolo:

1
Comprimere reti di ordine superiore senza perdere ciò che conta
Molti sistemi reali non sono composti solo da collegamenti a coppie. Una chat di gruppo, un articolo coautori, un'aula o un complesso biochimico sono interazioni di gruppo che coinvolgono 3, 4 o più entità contemporaneamente. Gli ipergrafi sono il modo naturale per modellare questo: si mettono nodi per le entità e "iperarchi" per ogni gruppo, con uno strato per le coppie, un altro per i terzetti, un altro per i quartetti, e così via. Il problema: questi modelli di ordine superiore diventano rapidamente enormi, difficili da calcolare e difficili da interpretare. La domanda chiave è: quanto di quella struttura di ordine superiore è realmente nuova informazione e quanto è solo ridondante rispetto agli ordini inferiori? 
Alec Kirkley, Helcio Felippe e Federico Battiston affrontano questo con una nozione di riducibilità strutturale in termini informatici per gli ipergrafi. Pensate di cercare di inviare un'intera rete di ordine superiore su un collegamento dati molto costoso. Un'opzione è "naïve": inviare ogni strato (coppie, terzetti, 4-uple, …) in modo indipendente. La loro alternativa è più intelligente: inviare solo un piccolo insieme di strati "rappresentativi", quindi descrivere i restanti come copie rumorose di quelli, usando solo le differenze. Più c'è struttura sovrapposta tra gli ordini (ad esempio, quando tutte le interazioni a 2 e 3 corpi sono già implicate da quelle a 5 corpi), più è possibile comprimere.
Trasformano questo in un punteggio normalizzato η tra 0 (nessuna comprimibilità) e 1 (perfettamente annidato, completamente riducibile), e un modello ridotto esplicito che mantiene solo le dimensioni delle interazioni non ridondanti. Le figure nel documento mostrano esempi semplici in cui un ipergrafo a quattro strati può essere ridotto in modo ottimale a solo due strati pur catturando ancora l'organizzazione essenziale di ordine superiore. 
Poi mettono alla prova questo su dati sintetici e reali. Su ipergrafi giocattolo "annidati" controllati, η diminuisce gradualmente mentre iniettano casualità, comportandosi come un manopola da "perfettamente strutturato" a "completamente casuale". Su sistemi reali (coautorship, reti di contatto, thread di email, sistemi di tagging, ecc.), molti si rivelano sorprendentemente comprimibili: è possibile eliminare diversi ordini di iperarchi e mantenere solo un piccolo sottoinsieme di strati, pur preservando la connettività globale, la struttura della comunità e persino il comportamento delle dinamiche del modello di voto di ordine superiore sopra la rete. 
La conclusione: spesso non hai bisogno della descrizione completa e ingombrante di ordine superiore per studiare un sistema complesso. Con la giusta lente informatica, puoi identificare quali dimensioni di gruppo aggiungono realmente nuova struttura, costruire un ipergrafo molto più piccolo e catturare comunque fedelmente i modelli collettivi e le dinamiche che ti interessano. 
Documento:

79
Percorsi meccanistici di deep learning, non solo paesaggi energetici
Quando i chimici o i biofisici parlano di un meccanismo, stanno davvero chiedendo: qual è il percorso più probabile che un sistema segue mentre si sposta dallo stato A allo stato B? In linguaggio di meccanica statistica, questo è il percorso di energia libera minima (MFEP) attraverso un paesaggio accidentato e ad alta dimensione. Il problema è che convergere la superficie di energia libera completa per reazioni realistiche, il ripiegamento delle proteine o il legame dei ligandi è brutalmente costoso, anche con il campionamento migliorato moderno.
Revanth Elangovan e i coautori seguono un percorso diverso: invece di calcolare prima l'intero paesaggio, apprendono il percorso stesso con un deep multitask learning strettamente accoppiato a metadinamica ben temperata. La loro rete neurale è un autoencoder il cui variabile latente 1D funge da "coordinata del percorso" guidata dai dati, mentre una perdita Deep-TDA fissa le estremità di questo varietà 1D ai bacini di reagenti e prodotti. Biasare la metadinamica lungo la coordinata di "progresso" latente guida il movimento lungo il percorso attuale; biasare la perdita di ricostruzione spinge il campionamento lontano da esso per scoprire percorsi alternativi. Un programma di annealing simulato sul bias della metadinamica aiuta il sistema a stabilizzarsi sul MFEP globale piuttosto che su uno locale.
Una volta che il modello è convergente, il decodificatore diventa un generatore di meccanismi: marciando lungo il percorso latente e decodificando di nuovo nello spazio descrittivo completo, il metodo produce un "impronta meccanistica"—una sequenza di cambiamenti strutturali che descrive la reazione o la transizione conformazionale in un modo leggibile dalle macchine. Gli autori mostrano questo su tre problemi molto diversi: un'isomerizzazione di idrobromurazione in fase gassosa dove il MFEP passa correttamente attraverso il vero reagente, il ripiegamento di chignolin dove il percorso appreso recupera la nota sequenza di riarrangiamenti dei legami idrogeno, e un sistema ospite-ospite calixarene dove l'algoritmo riscopre il percorso di disassociazione "bagnato" mediato dall'acqua che domina su un percorso secco.
Il messaggio più grande è convincente: combinando il campionamento migliorato con il deep learning, puoi bypassare la necessità di convergere una superficie di energia libera alta dimensionale completa, andare direttamente dopo il percorso di energia libera minima e trasformare automaticamente quel percorso in un'impronta quantitativa del meccanismo. Questo apre la porta a una nuova classe di modelli in cui non apprendiamo solo proprietà da strutture statiche, ma da impronte meccanistiche—utilizzando l'ML per prevedere la cinetica, progettare catalizzatori o selezionare ligandi in base a come si muovono attraverso paesaggi energetici complessi, non solo dove iniziano e finiscono.
Carta:

102
Principali
Ranking
Preferiti
