Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

DailyHealthcareAI
Deler forskningsartikler og nyheter om AI-applikasjoner innen radiologi, patologi, genetikk, proteindesign og mange flere. La oss lære sammen!
🚀David Baker preprint fra @UWproteindesign 👇👇
Hva gjør det så utfordrende å kutte proteinbindinger at naturen har utviklet spesialiserte enzymer med metallkofaktorer for å oppnå det?@biorxivpreprint @ETH_en
"Beregningsdesign av cysteinproteaser"
• Amidbindinger i proteiner har halveringstider på hundrevis av år under fysiologiske forhold, noe som gjør dem langt mer stabile enn esterbindinger (med aminforlatende grupper som har pKa >35 mot <8 for aktiverte estere), og tidligere beregningsenzymdesign har kun lykkes med aktiverte småmolekylestersubstrater i stedet for den energikrevende peptidbindingsspaltingen som kreves for proteaser.
• Forskerne brukte RoseTTAFold Diffusion 2 for Molecular Interfaces (RFD2-MI) for å designe sinkproteaser fra minimale katalytiske motiver, og konstruerte et ideelt aktivt sted med fem funksjonelle grupper (tre sinkbindende rester H1, H2, E1, én katalytisk base E2 og én oksyanionstabiliserende tyrosin Y) basert på aminopeptidase N- og astacinstrukturer, og utførte tosidig design av både protease- og substratsekvenser for å sikre presis plassering av målamidbindingen.
• Av 135 design testet i en enkelt designrunde, viste 36 % aktivitet (14,7 % for kun Zn-modeller og 87,5 % for Zn-vann-modeller), med alle aktive design som kuttet nøyaktig på tiltenkte steder bekreftet av massespektrometri; det mest aktive designet (Zn45-kløvende ZnO36-substrat) oppnådde kcat på 0,025 ± 0,002 s⁻¹, KM på 26 ± 5 μM, og kcat/KM på 900 ± 200 M⁻¹s⁻¹, som representerer >10⁸-dobbel akselerasjon over ukatalysert hydrolyse; design viste sinkbinding med Kd mellom 10⁻¹⁰ og 10⁻⁸ M, viste substratspesifisitet i 4 av 5 stillas, og kunne omprogrammeres til å kløve sykdomsrelevant humant TDP-43-protein med 4 varianter som oppnådde ≥80 % kløvning etter 5 timer.
Forfattere: Hojae Choi m.fl. al Donald Hilvert, Samuel J. Pellock, David Baker
Lenke:

8,85K
Kan en språkmodell lære RNA-struktur uten eksplisitt strukturell treningsdata?@NatureComms @Tsinghua_Uni
"ERNIE-RNA: en RNA-språkmodell med strukturforsterkede representasjoner"
• Eksisterende RNA-språkmodeller overser strukturell informasjon i sekvenser, noe som fører til ufullstendig trekk av funksjoner og suboptimal ytelse, til tross for RNAs hierarkiske organisering der primærsekvenser folder seg inn i spesifikke strukturelle konformasjoner som bestemmer biologiske funksjoner. Tradisjonelle beregningsmetoder for RNA-strukturprediksjon møter tydelige utfordringer: termodynamikkbaserte metoder er begrenset av parameternøyaktighet, justeringsbaserte metoder sliter uten tilstrekkelige homologe sekvenser, og dype læringsmodeller viser begrenset generalisering til usette RNA-familier. Selv om BERT-lignende RNA-språkmodeller som RNA-FM (trent på 23 millioner sekvenser), UNI-RNA (1 milliard sekvenser, 400M parametere) og RiNALMo (36M sekvenser, 650M parametere) har dukket opp, klarer de ikke tilstrekkelig å inkorporere strukturell informasjon, og noen, som UTR-LM, forsøker å løse dette ved å inkorporere predikerte strukturer fra RNAfold, men møter begrensninger på grunn av prediksjonsfeil og redusert generaliseringsevne.
• ERNIE-RNA er en 86 millioner parametere RNA forhåndstrent språkmodell basert på modifisert BERT-arkitektur med 12 transformatorblokker og 12 oppmerksomhetshoder, trent på 20,4 millioner ikke-kodende RNA-sekvenser fra RNAcentral etter filtrering av sekvenser lengre enn 1022 nukleotider og anvendelse av CD-HIT redundansfjerning med 100 % likhet. Modellen inkorporerer en basepar-informert oppmerksomhetsbias-mekanisme som tildeler verdier 2 for AU-par, 3 for CG-par, og en justerbar parameter α (opprinnelig 0,8) for GU-par i en alt-mot-alle-parvis posisjonsmatrise, som erstatter bias-termen i det første transformatorlaget. Forhåndstrening brukte maskert språkmodellering med 15 % av tokenene tilfeldig byttet ut, trent i 20 dager på 24 32G-V100 GPU-er ved bruk av fairseq med grunnleggende læringsrate 0,0001, 20 000 oppvarmingssteg og 0,01 vektavvikling, som genererte både attention maps (L×L×156) og token embeddings (12×768×L) som utganger.
• ERNIE-RNAs oppmerksomhetskart demonstrerte evne til å predikere sekundærstruktur med en gjennomsnittlig F1-score på 0,552 på bpRNA-1m-testsettet, og overgikk RNAfold (0,492), RNAstruktur (0,491), RNAErnie (0,440) og RNA-BERT (0,365) uten finjustering. Etter finjustering oppnådde ERNIE-RNA toppmoderne makrogjennomsnittlige F1-scorer på 0,873 på bpRNA-1m, og overgikk RiNALMo (0,850, 650M parametere) og UNI-RNA (0,821, 400M parametere), med tilsvarende ledelse på ArchiveII (0,954 mot RiNALMos 0,892) og RIVAS TestSetB (0,721 mot RiNALMos 0,555). På utfordrende generaliseringstester på tvers av familier oppnådde ERNIE-RNA frozen F1-scorer på 0,646 på bpRNA-new og 0,590 på RNA3DB-2D, og overgikk tradisjonelle dynamiske programmeringsmetoder som Eternafold (0,639) og opprettholdt overlegenhet over alle konkurrenter i dyp læring. ERNIE-RNA oppnådde også overlegen ytelse på tvers av ulike nedstrøms oppgaver: RNA-kontaktkartprediksjon med Top-L/1-presisjon på 0,68 (mot RNAkontakts ensemble på 0,46), 5'UTR MRL-prediksjon med R² på 0,92 på tilfeldig testsett og 0,86 på menneskelig testsett, RNA-proteinbindingsprediksjon som overgikk alle testede metoder, ncRNA-familieklassifiseringsnøyaktigheter på 0,9844 (0 % grensestøy) og 0,9820 (200 % grensestøy), Splice Site prediksjon F1-scorer fra 0,9180 til 0,9612 på tvers av fire arter, topp-K nøyaktighet på 55,37 % på SpliceAI-datasettet (mot RNA-FMs 34,84 %), og alternativ polyadenyleringsprediksjon R² på 78,39 % (mot RNA-FMs 70,32 %).
Forfattere: Weijie Yin, Zhaoyu Zhang, Shuo Zhang, Liang He et al Xuegong Zhang, Tao Qin & Zhen Xie
Lenke:

2,18K
Kan kunstig intelligens designe terapeutiske peptider ved å etterligne hvordan naturlige proteiner binder seg til sykdomsmål?@Tsinghua_Uni @natBME
"Peptiddesign gjennom bindingsgrensesnittetterligning med PepMimic"
• Forskere utviklet PepMimic, en AI-algoritme som kombinerer en autokoder, latent diffusjonsmodell og grensesnittkoder for å designe peptider (4-25 aminosyrer) som etterligner bindingsgrensesnitt mellom målproteiner og kjente bindemidler som antistoffer eller reseptorer, og adresserer begrensninger i dagens peptiddesign som krever manuell ekspertise og sliter med diskontinuerlige bindingsflater.
• Over 80 peptidterapier er godkjent for sykdommer inkludert diabetes og kreft, og tilbyr fordeler som høy spesifisitet, lavere toksisitet og potensiell oral administrering sammenlignet med små molekyler og biologiske legemidler, men utforming av peptidetterligninger av protein-protein-interaksjoner krever tradisjonelt omfattende ekspertise og kan ikke effektivt håndtere diskontinuerlige bindingsgrensesnitt, mens eksisterende AI-modeller fokuserer på ryggrad-etter-sekvens-tilnærminger i stedet for å fange opp avgjørende sidekjede Geometri for nøyaktige aminosyreinteraksjoner.
• PepMimic ble trent på 4 157 protein-peptidkomplekser og 70 645 peptidlignende fragmenter fra Protein Data Bank, ved hjelp av en autokoder for å kartlegge all-atom-geometrier til latent rom, en diffusjonsmodell for 100 denoising-trinn, og kontrastiv læring for å trene en grensesnittkoder som veileder generering ved å minimere avstander mellom designede og referansegrensesnitt i latent rom, med kandidater rangert ved hjelp av Rosetta-grensesnittenergi, FoldX-energi, grensesnitttreffmetrikk og AlphaFold Multimer pLDDT-score før du velger topppeptider (384 for mål med kjente bindemidler, 94-290 for AI-genererte bindemidler) for overflateplasmonresonansavbildningseksperimenter.
• PepMimic oppnådde gjennomsnittlig AUROC på 0,71 over 31 oppgaver på 93 testkomplekser (overgikk RFDiffusions 0,69), designet 384 peptider for 5 legemiddelmål (PD-L1, CD38, BCMA, HER2, CD4) med 8 % som oppnådde KD < 100 nM og 26 peptider som nådde KD på 10⁻⁹ M-nivå (vesentlig høyere enn tilfeldig bibliotekscreening), genererte peptider som etterlignet AI-designede bindemidler for CD38 og TROP2 med 14 % suksessrate (16 % for CD38, 8 % for TROP2), og demonstrerte effektiv in vivo tumormålretting i musemodeller med utvalgte peptider som viste 8,85 ganger større opptak i PD-L1-positive svulster og 16,18 ganger større opptak i TROP2-positive svulster, og oppnådde suksessrater 20 000-90 000 ganger høyere enn eksperimentell tilfeldig bibliotekscreening.
Forfattere: Xiangzhe Kong et. al Zihua Wang, Yang Liu og @musicsuperman
Lenke:

19,04K
Topp
Rangering
Favoritter

