16+
Суббота, 18 мая 2024
  • BRENT $ 84.00 / ₽ 7643
  • RTS1211.87

Цитаты персоны

Все персоны
Роман Душкин

Роман Душкин

главный архитектор систем искусственного интеллекта исследовательского центра ИИ по направлению «Транспорт и логистика» НИЯУ МИФИ

Высказанные мнения:

сортировать   по рейтингу / по датерейтинг / дата
Мнение к материалу от 16 мая 2024 года:
«Microsoft обратилась к сотрудникам в Китае с просьбой рассмотреть переезд»
«Это элемент мягкой силы даже не Microsoft, а гегемона США, который себе мыслит не пойми что. Естественно, они хотят ослаблять своих противников, назовем это так, а Китай и США на глобальной мировой доске в области науки, технологий и особенно искусственного интеллекта — это два самых мощных игрока, и они соперничают друг с другом. Они делят первое-второе место, поделить не могут, и я уверен, что это именно в первую очередь попытки ослабить Китай, как нас ослабляли в 90-е, когда была «утечка мозгов». Это то же самое, Microsoft хочет, чтобы перспективные молодые люди или даже немолодые ученые покидали Китай и не могли использовать свои мозги для защиты национальных интересов Китая или осуществления технического прогресса в Китае».
Мнение к материалу от 14 мая 2024 года:
«OpenAI представила GPT-4o, распознающую голос и видео»
«OpenAI обучили новую модель GPT воспринимать как минимум данные четырех новых модальностей, трех или четырех, в зависимости от того, как считать. Значит, если ChatGPT или GPT-3.5 принимает данные одной модальности, то есть текст, который мы пишем, GPT-4 воспринимает данные двух модальностей — это текст и картинки, которые мы можем кидать в чат, то GPT-4o уже добавляет две новые модальности данных — это аудио и видео. То есть мы можем с ней голосом общаться, при этом она воспринимает интонацию, невербальные признаки разговора, которые мы воспринимаем интуитивно. Также она теперь может воспринимать видео, то есть можно прямо поток видеокамеры ей пускать, и она в режиме реального времени или очень близком обрабатывает этот поток и может или комментировать, или как-то реагировать. То есть это гиперавтоматизация каких-то рутинных процессов, связанных с когнитивной обработкой информации. Например, первое, что приходит в голову, — это видео, например комментирование каких-то спортивных матчей, то есть она же может на лету описывать то, что происходит. Это же можно применить, например, для системы охранного видеонаблюдения, для того чтобы смотреть, что происходит в створе видеокамеры, не происходит ли каких-то инцидентов».
Мнение к материалу от 14 мая 2024 года:
«OpenAI презентовала нейросеть GPT-4o, которая быстро анализирует информацию»
«OpenAI обучили новую модель GPT воспринимать как минимум данные четырех новых модальностей, трех или четырех, в зависимости от того, как считать. Значит, если GPT-4 классическая или GPT-3.5 принимает данные одной модальности, то есть текст, который мы пишем, GPT-4 классическая воспринимает данные двух модальностей — это текст и картинки, которые мы можем кидать в чат, то GPT-4o уже добавляет две новые модальности данных — это звуки, аудио, то есть мы можем с ней голосом общаться, при этом она воспринимает интонацию, невербальные признаки разговора, которые мы воспринимаем интуитивно. Также она теперь может воспринимать видео, то есть можно прямо поток видеокамеры ей пускать, и она в режиме реального времени или очень близком обрабатывает этот поток и может или комментировать, или как-то реагировать. Использовать это можно там же, где и GPT-4, как минимум, то есть это гиперавтоматизация каких-то рутинных процессов, связанных с когнитивной обработкой информации. Вот эта система получает данные и обрабатывает данные в двух новых модальностях, то есть видео и звук, она может использоваться в том числе и для решения новых задач. Например, первое, что приходит в голову, это видео, например, комментирование каких-то спортивных матчей, то есть она же может на лету описывать то, что происходит. Это же можно применить, например, для системы охранного видеонаблюдения, для того чтобы смотреть, что происходит в створе видеокамеры, не происходит ли каких-то инцидентов».
Мнение к материалу от 11 мая 2024 года:
«В айфонах может появиться встроенный ChatGPT»
«Apple опаздывает, и, в общем то, это резонно признать, у них нет собственной разработки, а у Google такая разработка есть, даже у «Яндекса» и у «Сбера» есть такие разработки, и это собственные, аутентичные разработки, а у Apple, которая одна из инновационных компаний в мире, можно сказать, такой разработки нет. Эту интеграцию точно не стоит считать инновацией, потому что на смартфонах Android из коробки прямо интеграция с Gemini. Любая система, которая подключается к Bing, имеет Bing AI, если к «Яндексу» это Яндекс GPT и так далее. Но у iPhone закрытая экосистема, они сами отгородились от окружающего мира, и тут им можно только посочувствовать. То, что сейчас происходит, на моой взгляд, это попытка наверстать, но все это будет представляться как существенные революционные шаги, которые компании делают навстречу друг другу и так далее, маркетинговое нагромождение слов будет повсеместным, но тут надо ухо востро держать».
Мнение к материалу от 4 апреля 2024 года:
«Поиск в Google может стать платным. По крайней мере, частично»
«Я думаю, что какая-то часть рынка точно будет в этом заинтересована, особенно люди, которые хотят получить точную информацию — выверенную, верифицированную, не листать поисковую выдачу, не заниматься самостоятельным поиском. И мы уже начинаем к этому привыкать. Если не говорить про Google, а говорить, например, про «Яндекс»... В поисковой выдачи «Яндекса» уже интегрирована YandexGPT — та же самая модель, которая в «Алисе». Результаты ее деятельности мы можем наблюдать практически при любом поисковом запросе, особенно если он очень конкретный. Например, что такое какой-то объект, дать определение или найти какую-то конкретную информацию. Тогда первой плашкой в поисковой выдаче будет как раз результат работы YandexGPT. Там так и пишется: этот результат получен при помощи модели искусственного интеллекта, пожалуйста, будьте осторожны».

загрузить еще...

Фотоистории
BFM.ru на вашем мобильном
Посмотреть инструкцию