Alibaba Group Holding Ltd. представила нову модель штучного інтелекту, яка, за їхніми словами, може читати емоції. Це є частиною спроби випередити останню модель OpenAI.
У двох демонстраціях, дослідники Tongyi Lab Alibaba показали свою нову відкриту R1-Omni, яка може виявляти емоційний стан людини на відео, одночасно надаючи описи їхнього одягу та навколишнього середовища. Ця модель додає ще один рівень розуміння до так званого комп’ютерного зору і є вдосконаленою версією попередньої відкритої моделі HumanOmni, якою також керував той же провідний дослідник, Цзясін Чжао.
Спроби Alibaba зайняти ведучу позицію в сфері ІІ були прискорені резонируючим дебютом DeepSeek у січні, і лідер електронної комерції тепер випускає нові інструменти та додатки в кількох сферах. Він порівняв свою модель Qwen з DeepSeek, забезпечив значне партнерство з Apple Inc. для ІІ на iPhone та тепер намагається змагатися також з OpenAI. Модель R1-Omni пропонується для користувачів безкоштовно для завантаження на Hugging Face.
OpenAI раніше цього року випустила свою модель GPT-4.5, яка, за словами стартапу з Сан-Франциско, краще реагує на тонкі сигнали від користувацьких підказок. Проте модель має високу ціну: спочатку вона доступна лише для користувачів, які платять $200 на місяць.
Генеральний директор Alibaba, Едді Ву, повідомив аналітикам у лютому, що штучний загальний інтелект тепер є «первинною метою» компанії Alibaba.
Залишити відповідь