Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Независимый анализ моделей ИИ и хостинг-провайдеров - выберите лучшую модель и поставщика API для вашего сценария использования
TII, университетская лаборатория ИИ в ОАЭ, выпустила Falcon-H1R-7B, небольшую модель рассуждений с открытыми весами, которая хорошо сравнивается с моделями аналогичного размера
🧠 Высокий интеллект среди моделей <12B: Falcon-H1R-7B набирает 16 баллов в нашем обновленном Индексе Искусственного Интеллекта v4.0 - опережая NVIDIA Nemotron Nano 12B V2, но уступая Qwen3 VL 8B. Модель хорошо расположена на границе Парето по критериям Интеллекта и Общего Количества Параметров для сопоставимых моделей. По сравнению с другими моделями <12B, Falcon-H1R-7B показывает особенно хорошие результаты в 3 отдельных оценках - Последний Экзамен Человечества (рассуждения и знания), 𝜏²-Bench Telecom (агентное использование инструментов) и IFBench (следование инструкциям)
🇦🇪 Второй участник из ОАЭ в таблице лидеров: После K2-V2 от MBZUAI, Falcon-H1R-7B - вторая модель от организации, базирующейся в ОАЭ, в наших таблицах лидеров, среди множества моделей из США и Китая. Основанный правительством Абу-Даби, Институт Технологических Инноваций (TII) является глобальным исследовательским центром, чья миссия - продвигать границы знаний и активно работать в различных областях, включая энергетику, квантовые технологии и криптографию. У них более 100 моделей и вариантов с открытыми весами на Huggingface
📖 Умеренно открытая модель: Falcon-H1R-7B набирает 44 балла в Индексе Открытости Искусственного Интеллекта - нашем новом стандартизированном, независимо оцененном показателе открытости моделей ИИ по доступности и прозрачности. Это ставит ее впереди gpt-oss-20B от OpenAI, но позади Qwen3 VL8B. Наши самые открытые модели, от MBZUAI и Allen Institute for AI, делят первое место в таблице лидеров с 89 баллами, благодаря большей прозрачности и доступу к их методологии обучения и данным
📈 Высокое количество токенов на выходе: Модель использовала 140M токенов для завершения нашего Индекса Интеллекта. Это ставит ее ниже GLM-4.7, но выше большинства других моделей - как в ее категории размера, так и среди передовых моделей
📘 Ожидаемые знания для ее размера, умеренная степень галлюцинаций: AA-Omniscience - наш недавно выпущенный эталон, измеряющий фактические знания и галлюцинации моделей. Falcon-H1R-7B получает умеренный балл -62. Ее точность знаний (14) соответствует ожиданиям, учитывая, что мы наблюдаем сильную корреляцию между размером модели и точностью (сколько фактов модель правильно запоминает). Модель галлюцинирует 87% времени, когда она не может правильно вспомнить ответы - это умеренный балл среди передовых моделей и небольших моделей с открытыми весами
Поздравляем с запуском @TIIuae !

9,78K
Топ
Рейтинг
Избранное


