Результатов найдено: 1000
Стартап Ильи Суцкевера привлек еще $1 млрд при оценке $30 млрд
19 фев 2025
0
0
- Стартап Ильи Суцкевера Safe Superintelligence привлек $1 млрд в новом раунде финансирования.
- Общая оценка компании составляет $30 млрд, на $10 млрд больше, чем прогнозировали аналитики.
- Главным инвестором раунда станет Greenoaks…
161 год назад новозеландский овцевод предсказал восстание искусственного интеллекта
21 янв 2025
0
0
- Статья "Дарвин среди машин" Батлера предупреждала о механической расе, которая может поработить человечество.
- Батлер проводил параллели между теорией эволюции Дарвина и стремительным развитием машин.
- В письме Батлер предвосхищал проблемы безопасности…
Топ-20 лучших научных статей об ИИ-агентах в 2024 году
1 янв 2025
0
0
- 2024 год был насыщенным исследованиями в области искусственного интеллекта (ИИ).
- ИИ-агенты стали ключевым направлением исследований.
- Разработана подробная дорожная карта для воспроизведения модели o1 от OpenAI.
- Представлена новая парадигма информационного…
Илон Маск прогнозирует превосходство ИИ над человеком через два-три года
1 ноя 2024
0
0
- Илон Маск поделился своим видением развития технологий на мероприятии Future Investment Initiative Institute в Саудовской Аравии.
- Маск считает, что системы ИИ становятся эффективнее с каждым годом, и через 4 года…
Ян Лекун: "Прогнозы о появлении сверхчеловеческого ИИ - полная чушь"
15 окт 2024
0
0
- Ученый Ян Лекун считает, что современные ожидания от ИИ завышены, а угроза от него преувеличена.
- Лекун скептически относится к прогнозам о скором появлении сверхчеловеческого ИИ.
- Современные ИИ-модели далеки от…
Глава Anthropic: AGI может появиться к 2027 году и это создаст катастрофические риски
27 янв 2026
0
0
- Глава Anthropic предупреждает о возможном появлении суперинтеллектуального ИИ к 2027 году.
- ИИ может создать катастрофические риски для цивилизации без срочных мер со стороны правительств и технологических компаний.
- Амодеи выделяет пять…
Мнение философа: «Мы можем никогда не узнать, есть ли у ИИ сознание»
22 дек 2025
0
0
- Философ Том Макклелланд считает, что у человечества нет теоретической базы и инструментов для подтверждения наличия сознания у ИИ.
- Макклелланд утверждает, что любые дискуссии о «разумности» машин являются лишь умозрительной спекуляцией…
Российский код сознания: Обзор отечественных теорий в перспективе AGI
19 дек 2025
0
0
- Российский подход к ИИ основан на физиологии, кибернетике, психологии и философии.
- Пётр Кузьмич Анохин ввел целеполагание и создал Теорию функциональных систем.
- Константин Владимирович Анохин развивает идеи деда в теории Когнитома…
Microsoft пообещала остановить разработку сверхинтеллекта при угрозе для людей
15 дек 2025
0
0
- Microsoft готова прекратить работу над ИИ-системами, угрожающими безопасности человека.
- Глава потребительского ИИ-направления Мустафа Сулейман заявил об этом в декабре 2025 года.
- Компания не рассматривает гонку за мощностью как…
«Крестные отцы» ИИ и 1000 публичных людей хотят остановить разработку сверхразумного ИИ: в чем причина
23 окт 2025
0
0
- Более тысячи деятелей науки, бизнеса, политики и культуры подписали письмо с требованием приостановить разработку сверхразумного ИИ.
- В письме подчеркивается, что ИИ может улучшить здоровье и качество жизни, но компании хотят…
Anduril показала новые шлемы EagleEye, повышающие осведомленность на поле боя
15 окт 2025
0
0
- Anduril Industries представила EagleEye - модульную систему на базе ИИ для интеграции командования, управления и информационного поля в единую архитектуру для войск США и их союзников.
- EagleEye опирается на наработки Anduril…
Созданы искусственные нейроны, взаимодействующие с клетками как настоящие
1 окт 2025
0
0
- Ученые создали искусственные нейроны, имитирующие поведение и размер настоящих нейронов.
- Прорыв может изменить лечение нейродегенеративных заболеваний и паралича.
- Новые нейроны потребляют меньше энергии и могут быть подключены к настоящим клеткам…
DeepMind предупредила о 4 критических рисках утраты контроля над ИИ
23 сен 2025
0
0
- DeepMind выпустила третью версию Frontier Safety Framework для оценки рисков использования ИИ.
- Frontier Safety Framework описывает угрозы и меры предосторожности при использовании ИИ.
- Среди рисков: создание вредоносного ПО, манипуляция убеждениями…
Как захватить Вселенную за AGE. Часть 2 — экономика фаз 0 и 1
13 авг 2025
0
0
- Ключевые метрики индустриальной экспансии: TQ, EQ и BP.
- Реальная экономика и наука должны помочь перейти от Фазы 0 к Фазе 1.
- Парадокс Ферми: путь от космических полётов к устойчивому межпланетному…
AGI математически невозможен, но хайп уже не остановить
28 июл 2025
0
0
- Макс Шлерет доказал, что сильный ИИ невозможен из-за барьера бесконечного выбора и экспоненциального роста энтропии.
- Мир продолжает готовиться к "революционным переменам", которые преподносятся как неизбежные.
- AGI может привести к…