^
Начало
Установить закладку
+ Настройки
14 | 16 | 18 | 20 | 22 | 24
Ширина текста:
50% | 60% | 70% | 80% | 90% | 100%
Шрифт:
Цвет текста:
Установить
Цвет фона:
Установить
Сбросить настройки
Структура глобальной катастрофы
Предисловие
Вводное слово Ника Бострома.
Введение.
Часть 1. Анализ рисков
1.Общие замечания
2. Однофакторные сценарии глобальной катастрофы
2.1. Типология рисков
2.2 Атомное оружие
2.2. Глобальное химическое заражение
2.3. Биологическое оружиие
2.4. Супернаркотик
2.5. Риски, связанные с самокопирующимися идеями – мемами
2.6. Искусственный интеллект
2.7. Риски, связанные с роботами и нанотехнологиями
2.8. Технологические способы провоцирования естественных природных катастроф
2.9. Технологические риски, связанные с принципиально новыми открытиями
2.10. Возможные применения космических технологий для уничтожения земной жизни
2.11. Риски, связанные с размыванием границ между человеческим и нечеловеческим
2.12. Природные риски
2.13. Видовые риски, не связанные с новыми технологиями
2.14. Неизвестные нам сейчас причины катастроф
2.15. Способы обнаружения однофакторный сценариев глобальной катастрофы
3. Многофакторные сценарии
4. Глобальные риски второго рода
5. Криптовойны, гонка вооружений и другие сценарные факторы, повышающие вероятность глобвльной катастрофы
6. Глобальные риски трутьего рода
7. Защита от глобальных рисков
8. Непрямые способы оценки вероятности глобальной катастрофы
9. Заключение
Часть 2. Методология анализа.
1.Общие замечания. Ошибка как интеллектуальная катастрофа.
2.Ошибки, возможные только относительно угроз существованию
3.Как когнитивные искажения, могущие касаться любых рисков, влияют на оценку глобальных рисков
4. Общелогические ошибки, могущие проявиться в рассуждениях о глобальных рисках
5. Специфические ошибки, возникающие в дискуссиях об опасности неконтролируемого развития искусственного интеллекта
6. Спецефические ошибки, связанные рассуждениями о рисках нанотехнологий
7. Выводы по анализу когнитивных искажений в оценке глобальных рисков
8. Возможные правила для эффективной оценки глобальных рисков
Искусственный интеллект, как позитивный и негативный фактор глобального риска
1. Широта пространства возможных устройств ума.
2. Предсказание и устройство.
3. Недооценка силы интеллекта.
4. Способности и мотивы.
5. Дружественный ИИ.
6. Техническая неудача и философская неудача.
7. Темпы усиления интеллекта.
8. Оборудование.
9. Угрозы и перспективы.
10. Локальные стратегии и стратегии большинства.
11. ИИ и усиление человеческого интеллекта.
12. Взаимодействие ИИ и других технологий.
13. Ход прогресса в области Дружественного ИИ.
Введение в doomsday argument
Идеологические начала общей теории неуничтожимости человечества
Угрозы уничтожения человечества
Неуничтожимость как главная сверхзадача цивилизации
Качества неуничтожимой цивилизации
О необходимости разработки теоретических основ решения задач неуничтожимости человечества