Статьи по дате последнего редактирования
Внешний вид
Ниже показано до 50 результатов в диапазоне от 101 до 150.
- 4.3.1 Учёный, беспризорник и иммигрант (21:17, 8 мая 2025)
- 4.3.2 Мы знаем, как мы знаем (21:17, 8 мая 2025)
- 4.3.3 Удивительные приключения нейронных сетей в мире кибернетики: работа с Норбертом Винером (21:17, 8 мая 2025)
- 4.3.4 Научная богема и экспериментальная эпистемология (21:17, 8 мая 2025)
- 4.3.5 Грустный эпилог (21:17, 8 мая 2025)
- 4.4.1 Наследие Мак-Каллока и Питтса (21:17, 8 мая 2025)
- 4.4.2 Развитие нейросетевых моделей (21:17, 8 мая 2025)
- 4.4.3 Исследования нейробиологов (21:17, 8 мая 2025)
- 4.4.4 Первые эксперименты в области искусственных нейронных сетей (21:17, 8 мая 2025)
- 4.4.5 Перцептрон Розенблатта (21:17, 8 мая 2025)
- 4.4.6 Первые нейрокомпьютеры (21:17, 8 мая 2025)
- 4.4.7 Нейросетевые исследования 1960-х годов (21:17, 8 мая 2025)
- 4.4.8 Теоретические результаты (21:18, 8 мая 2025)
- 4.4.9 Друзья, увлечения и крысы Розенблатта (21:18, 8 мая 2025)
- 4.5 Чистюли и грязнули - разные школы ИИ (21:18, 8 мая 2025)
- 4.6 Марвин Минский и зима искусственного интеллекта (21:18, 8 мая 2025)
- 5 Предвестники весны искусственного интеллекта (21:36, 8 мая 2025)
- 5.1 Три ключевых фактора успеха (21:36, 8 мая 2025)
- 5.2 Модели и алгоритмы (21:36, 8 мая 2025)
- 5.2.1 СССР, Фрейд и котики приходят на помощь (21:37, 8 мая 2025)
- 5.2.2 Исследования Румельхарта (21:37, 8 мая 2025)
- 5.2.3.1 Описание проблемы (21:37, 8 мая 2025)
- 5.2.3.2 Начало поиска метода (21:37, 8 мая 2025)
- 5.2.3.3 Зигмунд Фрейд и его нейробиологические исследования (21:37, 8 мая 2025)
- 5.2.3.4 Теория расчёта весов и описание метода обратного распространения ошибки (21:37, 8 мая 2025)
- 5.2.4 Глубокое обучение: многослойные нейронные сети с регулярной структурой (21:37, 8 мая 2025)
- 5.2.4.1 Роль котиков в развитии нейронных сетей (21:38, 8 мая 2025)
- 5.2.4.2 Когнитрон и неокогнитрон Кунихико Фукусимы (21:38, 8 мая 2025)
- 5.2.4.3 Ян Лекун: внедрение метода обратного распространения ошибки для обучения свёрточных нейронных сетей (21:38, 8 мая 2025)
- 5.2.5.1 Обсуждение теоретической возможности (21:38, 8 мая 2025)
- 5.2.5.2 Предложения и проблемы (21:38, 8 мая 2025)
- 5.2.5.3 Сети с долгой краткосрочной памятью (LSTM) и другие модели (21:38, 8 мая 2025)
- 5.2.6 Автокодировщики, контрастное обучение и близнецы Барлоу (21:38, 8 мая 2025)
- 5.3.1 Гордон Мур и его закон (21:38, 8 мая 2025)
- 5.3.2 Пределы роста (21:38, 8 мая 2025)
- 5.3.3 Оборудование для нейронных сетей: GPU, TPU, FPGA (21:38, 8 мая 2025)
- 5.3.4 Импульсные нейронные сети (21:38, 8 мая 2025)
- 5.3.5 Нейроморфные системы типа I. Начало (21:39, 8 мая 2025)
- 5.3.6 Нейроморфные системы типа I. Исследования мозга и принцип STDP (21:39, 8 мая 2025)
- 5.3.7 Нейроморфные системы типа I. Перспективы (21:39, 8 мая 2025)
- 5.3.8 Нейроморфные системы типа II. Начало (21:39, 8 мая 2025)
- 5.3.9 Открытие мемристора (21:39, 8 мая 2025)
- 5.3.10 Нейроморфные системы типа II сегодня (21:39, 8 мая 2025)
- 5.3.11 Перспективные вычислительные технологии (21:39, 8 мая 2025)
- 5.4 Данные (21:39, 8 мая 2025)
- 6.1 ИИ сейчас - большой интерес, обширные вложения и хорошие прогнозы (21:49, 8 мая 2025)
- 6.2 Машина распознаёт образы (21:49, 8 мая 2025)
- 6.2.1 Распознавание изображений (21:49, 8 мая 2025)
- 6.2.1.1 Фей-Фей Ли и ImageNet (21:49, 8 мая 2025)
- 6.2.1.2 SuperVision и её особенности (21:49, 8 мая 2025)