Ученые уверены в гибели человечества от компьютеров

Времена холодной войны прошли, риск ядерной катастрофы стал намного ниже. Однако теперь выживанию человечества угрожают компьютеры и искусственный интеллект. Ученые из Кембриджа считают, что сценарий фильма "Терминатор" может воплотиться в жизнь в течение этого века.

Центр по изучению экзистенциальных рисков (CSER) Кембриджа провел исследования, которые доказали, что современные технологии могут уничтожить человеческую цивилизацию уже в ближайшем будущем. Ученые проанализировал опасность, которую представляют биотехнологии, искусственный интеллект, нанотехнологии, ядерная война и климатические изменения, пишет PhysOrg.

Сооснователь Skype Яаан Таллин и философ Хью Прайс уверены, что самая главная угроза выживанию человеческой цивилизации - увеличение вычислительных мощностей компьютеров. Рано или поздно этот процесс приведет к созданию "Единого искусственного интеллекта", который будет способен писать программы самостоятельно и без вмешательства человека производить роботов, свое "потомство".

"В течение этого века разум покинет пределы биологической природы. Интеллект обретут и электронные системы, мы станем не единственным разумным видом на Земле, - отмечает Прайс, - Мы должны серьезно подходить к вероятности, что изобретение искусственного интеллекта может стать новым ящиком Пандоры. При неправильном обращении с ним последствия могут оказаться катастрофическими".

Эксперты CSER собираются опросить аналитиков из таких областей, как политика, право, информатика и наука, чтобы составить как можно более точный прогноз катастрофы.

По мнению Прайса, основная опасность заключается в том, что однажды компьютеры начнут распределять ресурсы в соответствии с собственными нуждами, в ущерб человеческим желаниям.

"Возможно, человечеству придется сражаться за ресурсы с доминирующим видом", - говорит Прайс, - Возьмем, к примеру, горилл. Они вымирают не потому, что люди враждебны к ним, а потому что мы изменяем окружающую их среду в соответствии с нашими желаниями".

Главная тема: 

Комментарии

Ну что, так и будем сидеть сложа руки? Не пора ли заслать кого-нибудь в прошлое, чтобы тот кокнул изобретателя компьютера?

И это будет именно линукс,он и сейчас слишком человечный,то пишет"простите"то"это не слишком удачная идея",а вскоре будут такие слова"капец тебе людишка!"))).

Прям так и пишет? Простите, и давно у Вас эти видения?

comrade аватар

Да, или роботы нас грохнут (или в конц-заповедниках запрут, если окажутся "гуманными"), или сами станем киборгами – будем усиливать возможности мозга за счёт компьютеров.

Недавно прошла новость, что IBM испытывает действующую модель человеческого мозга (с аналогичным числом "нейронов" и связей между ними).
Правда она пока в 1500 раз медленнее мозга, но по закону Мура это отставание будет пройдено за 12-17 лет (всего три года назад только "кошку" смоделировали).
А потом компьютер будет умнее по всем пунктам.

Как все у Вас просто. Прошла новость + закон Мура = скоро компьютер будет умнее.

А потом компьютер будет умнее по всем пунктам.

Так и хочется спросить: умнее кого именно и по каким конкретно пунктам? Не забывайте, что под AI подразумевается не сам интеллект, а имитация мышления. AI - это черный ящик, который снаружи выглядит как нечто разумное. И Вы с уверенностью тут объявляете, что имитация способна что-то превзойти? :) Вы пытаетесь убедить доверчивого читателя, что китайская подделка Ролекса станет отсчитывать время точнее оригинала? ;)

comrade аватар

Чукча и геолог собирают камешки на берегу океана. Вдруг видят направляющегося к ним голодного белого медведя. Ружья нет.
Чукча хватает лыжи и начинает их надевать.
Геолог:
– Бесполезно. Все равно ты не сможешь бежать быстрее медведя.
– А мне и не надо бежать быстрее медведя. Мне надо бежать быстрее тебя!

Британские ученые - они такие...

Нельзя делать искусственный интеллект самообучаемым. Потому что учиться он будет у людей. И чему, по-вашему, мы, люди, сможем его научить своим примером? ;)

Бухать, курить, снимать телок, верить в то, что мы боги... Это будет круто!

Ничему не сможем научить. Но не потому, что учить нечему, а потому, что никакого искусственного интеллекта не будет. Это все фантазии. В 80е тоже фантазировали, что к 2000 году человек будет заселять другие планеты.

Давайте лучше поржём
"Случай произошел поздним вечером, когда семейная пара решила разнообразить свое времяпрепровождение эротическими ролевыми играми.Женщина решила побаловать своего мужа, прикупив для этого все необходимое, включая маску, наручники, плеть и т.д. И в тот момент, когда Джессика надела черную маску, умный дом, исходя из данных с камер видеонаблюдения, принял её за преступника, незамедлительно задействовав соответствующие меры: в комнату был подан усыпляющий газ, включена визуальная и звуковая сигнализация, вызвана полиция.
К моменту приезда полицейских Уолтер и Джессика Дейлис все еще находились в бессознательном состоянии. Лишь в клинике их удалось привести в чувства, где и выяснилось, что организм пострадавших мог вовсе не справиться с последствиями удушения, обернувшись летальным исходом.На данный момент ведется следствие. Состояние семейной пары удовлетворительное. По одной из версий, инцидент произошел из-за безответственного подхода компании, которая занималась проектированием системы безопасности умного дома, не проведя в полной мере предварительные испытания, а также не приняв к сведению состояние здоровья обоих членов семьи."

Комментировать

Filtered HTML

  • Доступны HTML теги: <a> <em> <strong> <cite> <code> <ul> <ol> <li> <dl> <dt> <dd> <blockquote> <strike> <code> <h2> <h3> <h4> <h5> <del> <img>
  • Адреса страниц и электронной почты автоматически преобразуются в ссылки.
  • Строки и параграфы переносятся автоматически.

Plain text

  • HTML-теги не обрабатываются и показываются как обычный текст
  • Адреса страниц и электронной почты автоматически преобразуются в ссылки.
  • Строки и параграфы переносятся автоматически.