Результатов найдено: 1000

Стартап Ильи Суцкевера привлек еще $1 млрд при оценке $30 млрд

19 фев 2025
0
0
- Стартап Ильи Суцкевера Safe Superintelligence привлек $1 млрд в новом раунде финансирования. - Общая оценка компании составляет $30 млрд, на $10 млрд больше, чем прогнозировали аналитики. - Главным инвестором раунда станет Greenoaks…

161 год назад новозеландский овцевод предсказал восстание искусственного интеллекта

21 янв 2025
0
0
- Статья "Дарвин среди машин" Батлера предупреждала о механической расе, которая может поработить человечество. - Батлер проводил параллели между теорией эволюции Дарвина и стремительным развитием машин. - В письме Батлер предвосхищал проблемы безопасности…

Топ-20 лучших научных статей об ИИ-агентах в 2024 году

1 янв 2025
0
0
- 2024 год был насыщенным исследованиями в области искусственного интеллекта (ИИ). - ИИ-агенты стали ключевым направлением исследований. - Разработана подробная дорожная карта для воспроизведения модели o1 от OpenAI. - Представлена новая парадигма информационного…

Илон Маск прогнозирует превосходство ИИ над человеком через два-три года

1 ноя 2024
0
0
- Илон Маск поделился своим видением развития технологий на мероприятии Future Investment Initiative Institute в Саудовской Аравии. - Маск считает, что системы ИИ становятся эффективнее с каждым годом, и через 4 года…

Ян Лекун: "Прогнозы о появлении сверхчеловеческого ИИ - полная чушь"

15 окт 2024
0
0
- Ученый Ян Лекун считает, что современные ожидания от ИИ завышены, а угроза от него преувеличена. - Лекун скептически относится к прогнозам о скором появлении сверхчеловеческого ИИ. - Современные ИИ-модели далеки от…

Глава Anthropic: AGI может появиться к 2027 году и это создаст катастрофические риски

27 янв 2026
0
0
- Глава Anthropic предупреждает о возможном появлении суперинтеллектуального ИИ к 2027 году. - ИИ может создать катастрофические риски для цивилизации без срочных мер со стороны правительств и технологических компаний. - Амодеи выделяет пять…

Мнение философа: «Мы можем никогда не узнать, есть ли у ИИ сознание»

22 дек 2025
0
0
- Философ Том Макклелланд считает, что у человечества нет теоретической базы и инструментов для подтверждения наличия сознания у ИИ. - Макклелланд утверждает, что любые дискуссии о «разумности» машин являются лишь умозрительной спекуляцией…

Российский код сознания: Обзор отечественных теорий в перспективе AGI

19 дек 2025
0
0
- Российский подход к ИИ основан на физиологии, кибернетике, психологии и философии. - Пётр Кузьмич Анохин ввел целеполагание и создал Теорию функциональных систем. - Константин Владимирович Анохин развивает идеи деда в теории Когнитома…

Microsoft пообещала остановить разработку сверхинтеллекта при угрозе для людей

15 дек 2025
0
0
- Microsoft готова прекратить работу над ИИ-системами, угрожающими безопасности человека. - Глава потребительского ИИ-направления Мустафа Сулейман заявил об этом в декабре 2025 года. - Компания не рассматривает гонку за мощностью как…

«Крестные отцы» ИИ и 1000 публичных людей хотят остановить разработку сверхразумного ИИ: в чем причина

23 окт 2025
0
0
- Более тысячи деятелей науки, бизнеса, политики и культуры подписали письмо с требованием приостановить разработку сверхразумного ИИ. - В письме подчеркивается, что ИИ может улучшить здоровье и качество жизни, но компании хотят…

Anduril показала новые шлемы EagleEye, повышающие осведомленность на поле боя

15 окт 2025
0
0
- Anduril Industries представила EagleEye - модульную систему на базе ИИ для интеграции командования, управления и информационного поля в единую архитектуру для войск США и их союзников. - EagleEye опирается на наработки Anduril…

Созданы искусственные нейроны, взаимодействующие с клетками как настоящие

1 окт 2025
0
0
- Ученые создали искусственные нейроны, имитирующие поведение и размер настоящих нейронов. - Прорыв может изменить лечение нейродегенеративных заболеваний и паралича. - Новые нейроны потребляют меньше энергии и могут быть подключены к настоящим клеткам…

DeepMind предупредила о 4 критических рисках утраты контроля над ИИ

23 сен 2025
0
0
- DeepMind выпустила третью версию Frontier Safety Framework для оценки рисков использования ИИ. - Frontier Safety Framework описывает угрозы и меры предосторожности при использовании ИИ. - Среди рисков: создание вредоносного ПО, манипуляция убеждениями…

Как захватить Вселенную за AGE. Часть 2 — экономика фаз 0 и 1

13 авг 2025
0
0
- Ключевые метрики индустриальной экспансии: TQ, EQ и BP. - Реальная экономика и наука должны помочь перейти от Фазы 0 к Фазе 1. - Парадокс Ферми: путь от космических полётов к устойчивому межпланетному…

AGI математически невозможен, но хайп уже не остановить

28 июл 2025
0
0
- Макс Шлерет доказал, что сильный ИИ невозможен из-за барьера бесконечного выбора и экспоненциального роста энтропии. - Мир продолжает готовиться к "революционным переменам", которые преподносятся как неизбежные. - AGI может привести к…