Между раем и адом: прогнозы учёных о будущем человечества

В начале мая двое крупных учёных практически одновременно опубликовали прогнозы касательно будущего нашей цивилизации. Один прогноз был подозрительно оптимистичным, другой, наоборот, удручающе мрачным. Иначе говоря, есть две новости: хорошая и плохая. Начнём с плохой.
 
Стивен Хокинг 

Великий британский физик Стивен Хокинг предупреждает человечество о скорой и почти неминуемой гибели. В новом документальном фильме «Стивен Хокинг: Экспедиция Новой Земли» он перечисляет все основные угрозы, способные уничтожить человечество: перенаселение, астероиды, эпидемии и так далее. Отдельной строкой учёный выделяет опасность атомной войны, искусственного интеллекта и генетически модифицированных вирусов. Он считает, что через сто лет количество угроз перед нашей цивилизацией возрастет настолько, что гибель человечества уже никому не будет казаться фантастикой.

Несколько раньше Хокинг заявлял, что у человечества есть примерно тысяча лет, чтобы избежать гибели, найдя пригодный для жизни мир и колонизуя его. Теперь эти сроки уменьшились в десять раз, так что найти и колонизовать другой мир (считай, Марс) возможным никак не представляется.

 
Рэй Курцвейл 

Хорошая новость пришла от Рэя Курцвейла, американского изобретателя и футуролога, а по совместительству технического директора компании Google. Он собрал воедино все основные прогнозы, данные им в течение двух последних десятилетий, и уточнил сроки их осуществления вплоть до года. Этих прогнозов около 30-ти, и с ними можно познакомиться, например, здесь.

Господин Курцвейл пророчит человечеству рай, причём почти немедленный. Правда, в этой бочке рая кроется почти незаметная глазу ложка ада. Мы не очень понимаем, что имел в виду футуролог «под распространением технологической сингулярности на всю Вселенную» (а как же насчёт скорости света, которую, согласно Эйнштейну, никому превышать не позволено?), но сама эта технологическая сингулярность в переводе на общепонятный язык означает состояние технического прогресса, при котором он станет настолько быстрым и сложным, что окажется недоступен нашему пониманию. И это скорее плохо, чем хорошо.

 
Владимир Липунов  

Комментируя прогнозы для «ТД», профессор физического факультета МГУ Владимир Липунов благосклонно отнёсся к предсказаниям Курцвейла, но заметил, что даже если все они сбудутся в указанные сроки, нашу цивилизацию это не спасёт. Её гибель, по словам Липунова, неминуемо забрезжит именно через сто, максимум через несколько сотен лет. К этому выводу астрофизик приходит путём несложных вычислений, основанных на том, что почти полвека поисков следов, которые могли бы оставить инопланетные цивилизации, не дали никакого результата.

― Учёные задумывались над этим давно, ― говорит Владимир Липунов. ― Ещё в 1950 году Энрико Ферми задал вопрос о том, что было позже названо Великим молчанием Вселенной: «Если в нашей галактике существует множество внеземных цивилизаций, то почему мы до сих пор не видим такие их следы, как космические корабли или зонды?». В конце 80-х я рассчитал среднее время жизни любой технологической цивилизации в период, когда её технологии начинают развиваться по экспоненте. Если наша планета не уникальна, следует предположить, что разумных, а главное, технологически развитых цивилизаций должно быть много. Они могут входить в контакт друг с другом, если время их существования и расстояние между ними позволяют такой контакт. За миллиарды лет можно если не освоить, то хотя бы изучить всю галактику, оставив повсюду свои следы, и, конечно, войдя в контакт с другими цивилизациями. А если контакта нет, то, значит, жизнь такой цивилизации коротка и, по моим расчётам, составляет в среднем около сотни или нескольких сотен лет. Впоследствии к тем же результатам независимо пришли коллеги из России и США, и это очень хорошо совпадает с прогнозами Стивена Хокинга.

Человек, пишущий эти строки, в силу своего характера с равным скепсисом относится к обоим прогнозам. На его взгляд, обещания Курцвейла в большинстве своем вполне реализуемы, но сроки их исполнения вызывают большое сомнение ― особенно если учесть сопротивление, с которым будут сталкиваться некоторые из этих новаций.

Британский профессор Кевин Уорвик нисколько не сомневается, что в скором времени искусственный мозг перегонит человеческий 

Насчёт скорой гибели человечества тоже можно найти возражения ― хотя бы потому, что встретить её очень не хочется, и приятнее верить в обратное по принципу «авось пронесёт». Однако некоторые ограничения на этот «авось» наложить всё же придётся.

Возьмём, к примеру, искусственный интеллект: один из ведущих специалистов по нему, британский профессор Кевин Уорвик, нисколько не сомневается, что в скором времени искусственный мозг перегонит человеческий. Но тут же оговаривается: главное, по его мнению, не терять контроля над новым разумом, иначе ваш верный помощник превратится в детище Франкенштейна, а его литературный аналог покажется Чебурашкой. Однако, сожалеет профессор, сделать это будет трудно, пока в мире идут войны и воюющие стороны хотят использовать передовое оружие. В такой обстановке, говорит Уорвик, неизбежна быстрая гонка интеллектов, и тут уж будет не до контроля. Если рассматривать прогнозы Курцвейла о людях-киборгах, чипах, внедренных в мозг, нанороботах и так далее, то здесь аналогичная опасность таится в террористах ― они вполне могут использовать эти «чудеса» в своих целях.

Поэтому прежде чем достигать обозначенных футурологом целей, человечеству придётся полностью избавиться и от войн, и от терроризма. Можно попробовать сделать это на Земле, а можно избрать более легкий путь и начать искать подходящую для жизни планету, где нет ни войн, ни террористов. Правда, с определённой точки зрения и это не гарантия: как сказано в одной книге, «когда [люди] будут говорить: "мир и безопасность", тогда внезапно постигнет их пагуба».