TII, университетская лаборатория ИИ в ОАЭ, выпустила Falcon-H1R-7B, небольшую модель рассуждений с открытыми весами, которая хорошо сравнивается с моделями аналогичного размера 🧠 Высокий интеллект среди моделей <12B: Falcon-H1R-7B набирает 16 баллов в нашем обновленном Индексе Искусственного Интеллекта v4.0 - опережая NVIDIA Nemotron Nano 12B V2, но уступая Qwen3 VL 8B. Модель хорошо расположена на границе Парето по критериям Интеллекта и Общего Количества Параметров для сопоставимых моделей. По сравнению с другими моделями <12B, Falcon-H1R-7B показывает особенно хорошие результаты в 3 отдельных оценках - Последний Экзамен Человечества (рассуждения и знания), 𝜏²-Bench Telecom (агентное использование инструментов) и IFBench (следование инструкциям) 🇦🇪 Второй участник из ОАЭ в таблице лидеров: После K2-V2 от MBZUAI, Falcon-H1R-7B - вторая модель от организации, базирующейся в ОАЭ, в наших таблицах лидеров, среди множества моделей из США и Китая. Основанный правительством Абу-Даби, Институт Технологических Инноваций (TII) является глобальным исследовательским центром, чья миссия - продвигать границы знаний и активно работать в различных областях, включая энергетику, квантовые технологии и криптографию. У них более 100 моделей и вариантов с открытыми весами на Huggingface 📖 Умеренно открытая модель: Falcon-H1R-7B набирает 44 балла в Индексе Открытости Искусственного Интеллекта - нашем новом стандартизированном, независимо оцененном показателе открытости моделей ИИ по доступности и прозрачности. Это ставит ее впереди gpt-oss-20B от OpenAI, но позади Qwen3 VL8B. Наши самые открытые модели, от MBZUAI и Allen Institute for AI, делят первое место в таблице лидеров с 89 баллами, благодаря большей прозрачности и доступу к их методологии обучения и данным 📈 Высокое количество токенов на выходе: Модель использовала 140M токенов для завершения нашего Индекса Интеллекта. Это ставит ее ниже GLM-4.7, но выше большинства других моделей - как в ее категории размера, так и среди передовых моделей 📘 Ожидаемые знания для ее размера, умеренная степень галлюцинаций: AA-Omniscience - наш недавно выпущенный эталон, измеряющий фактические знания и галлюцинации моделей. Falcon-H1R-7B получает умеренный балл -62. Ее точность знаний (14) соответствует ожиданиям, учитывая, что мы наблюдаем сильную корреляцию между размером модели и точностью (сколько фактов модель правильно запоминает). Модель галлюцинирует 87% времени, когда она не может правильно вспомнить ответы - это умеренный балл среди передовых моделей и небольших моделей с открытыми весами Поздравляем с запуском @TIIuae !
Falcon-H1R-7B — это вторая модель от компании из ОАЭ в наших рейтингах, среди множества моделей из США и Китая.
Falcon-H1R-7B имеет умеренный балл в Индексе Открытости Искусственного Анализа
Модель использовала 140M токенов для завершения нашего Индекса Интеллекта - ниже GLM-4.7, но выше, чем у большинства других моделей
Falcon-H1R-7B получает умеренный балл в AA-Omniscience, с ожидаемыми знаниями для своего размера и умеренной частотой галлюцинаций
По сравнению с аналогичными моделями, Falcon-H1R-7B хорошо справляется с Последним Экзаменом Человечества (рассуждение и знание), 𝜏²-Bench Telecom (использование инструментов) и IFBench (следование инструкциям)
Дальнейший анализ Искусственного Интеллекта: Ссылка на Hugging Face 🤗: Технический отчет:
23,54K