Китайские исследователи из Академии наук КНР и Южно-Китайского технологического университета заявили, что современные большие языковые модели (LLM) способны самостоятельно, без прямого обучения, выстраивать человекообразные когнитивные структуры — и это не просто подражание, а по-настоящему спонтанная организация знаний.
В масштабном эксперименте учёные дали ИИ простое задание: находить «лишний» объект среди трёх — по тексту (для ChatGPT-3.5) и по изображениям (для Gemini Pro Vision). В выборке было 1 854 объекта: от собак и стульев до яблок и автомобилей. В ответ — 4,7 миллиона логически обоснованных решений и 66 концептуальных измерений, созданных самой моделью. Причём ИИ группировал объекты не только по банальным признакам (еда, мебель), но и по более сложным — по текстуре, эмоциональной окраске, даже пригодности для детей.
Особенно интересно, что мультимодальные модели — те, что обрабатывают и текст, и изображения одновременно — оказались ещё ближе к человеческому способу мышления, чем «чисто текстовые». Более того, исследование показало: некоторые нейропаттерны мозга человека и ИИ перекрываются, когда оба распознают объекты.
Конечно, это не означает, что ИИ «чувствует» или «осознаёт» окружающий мир — он не переживает опыт, как человек. Но именно способность самостоятельно выстраивать концептуальные представления о мире, а не просто повторять шаблоны, приближает нас к общему искусственному интеллекту (AGI).
#МирРобототехники #ИИ #AGI #ИскусственныйИнтеллект #LLM #ChatGPT #Gemini
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👏6
Apple неожиданно всерьёз рассматривает возможность отдать мозг своего голосового помощника в руки стороннего ИИ. Siri может перестать быть «яблочной» изнутри: по информации Bloomberg, Apple ведёт переговоры с Anthropic (создателем Claude) и OpenAI (автором ChatGPT) о том, чтобы использовать их языковые модели вместо собственных Apple Foundation Models.
Такой шаг может стать настоящим переломным моментом. Пока Android-устройства с Gemini или ChatGPT вовсю демонстрируют возможности продвинутых ассистентов, Siri остаётся где-то в 2018 году — несмотря на миллиарды, вложенные Apple в разработку собственных решений. Новая система на базе LLM Siri, которую должны были представить в 2025 году, уже не вдохновляет руководство: по внутренним тестам, Claude от Anthropic опережает по качеству взаимодействия и точности ответов.
Изменения могут произойти уже в 2026 году, когда Siri начнёт работать на частной облачной инфраструктуре Apple с внедрёнными сторонними моделями. Сценарий, при котором Siri будет генерировать текст с помощью ChatGPT, обрабатывать изображения и управлять приложениями при поддержке Claude — становится всё более вероятным.
#МирРобототехники #ИИ #Инновации #ИскусственныйИнтеллект #Apple #Siri #AI #ChatGPT #Claude
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤5