На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Космос

8 383 подписчика

Свежие комментарии

  • Сергей Бороздин
    Мой алгоритм - в статье на Самиздат и дзен "Библия как научный источник истории Мира"Единый алгоритм э...
  • дмитрий Антонов
    прошу прощения, меня тут небыло давно. А где Юрий В Радюшин? с Новым 2023 годомБыл запущен первы...
  • дмитрий Антонов
    жаль, что тема постепенно потерялась. а ведь тут было так шумно и столько интересного можно было узнать, помимо самих...Запущен CAPSTONE ...

Чем нас еще пугают...

«К 2100 году человечество расколется на биологические касты»


Фото: EAST NEWS

В будущем биотехнологии и искусственный интеллект поделят общество на сверхлюдей и на бесполезный класс. Массы утратят свое экономическое и политическое влияние и в то же время не смогут позволить себе улучшить свои физические данные с помощью технологий. В результате общество расколется на биологические касты, прогнозирует в своей колонке в The Guardian израильский историк Юваль Ной Харари.

В своей колонке Юваль Ной Харари, автор книги «Homo Deus: краткая история завтрашнего дня», вспоминает этапы развития человеческого общества. Он отмечает, что с появлением частной собственности неравенство между людьми усиливалось. Но гуманизм, либерализм и социализм направили этот процесс в обратную сторону. К тому же индустриальные экономики нуждались в массовой армии и массовом труде, поэтому инвестировали в систему здравоохранения, образования и соцподдержки масс.

Однако в постиндустриальном мире народ утрачивает прежнее значение и становится лишним. Армии обходятся группой профессиональных военных, которые управляют дронами и роботами, а фабрики заменяют рабочих умными станками и машинами. По мнению Харари, снижение роли масс в обществе приведет к формированию бесполезного класса.

«В 21 веке неравенство в обществе достигнет исторического максимума», — пишет историк.

Развитие биотехнологий и биоинженерии позволит превратить экономическое неравенство в биологическое. Небольшая группа людей, элита, сможет «прокачать» свое тело и мозг, улучшив свои физические и когнитивные способности.

Самосовершенствование обойдется дорого, поэтому доступно оно будет лишь единицам. «В результате человечество расколется на биологические касты», — прогнозирует Харари.

При этом историк отмечает, что в прошлом положение человека не определяло его интеллект или силу. Среднестатистический герцог не обладал большими талантами, чем крестьянин, его превосходство было обусловлено лишь юридическим и экономическим положением. «Однако к 2100 году богатые действительно могут стать талантливее, креативнее и умнее бедняков. Как только возникнет этот разрыв между бедными и богатыми, уже ничего нельзя будет изменить», — предупреждает эксперт.

Возможно, предполагает Харари, некоторые государства, в которых укоренены гуманистические идеалы, продолжат поддерживать массы, даже несмотря на их бесполезность.

Например, дадут им доступ к видеоиграм и виртуальным мирам. Но другие страны, например, Китай, Бразилия или Южная Африка, могут сбросить лишний класс за борт общества.

Харари приходит к выводу, что глобализация, в пользу которой высказываются многие лидеры ИТ-компаний, не даст людям равенство и свободу. «Глобализация объединит мир вертикально, то есть сотрет национальные различия, но в то же время разделит человечество горизонтально», — заключает историк. В итоге неравенство достигнет невообразимого прежде масштаба.

И все-таки развитие технологий никогда не было детерминированным. Общество само будет выбирать, каким станет мир под их влиянием. Харари приводит в пример КНДР и Южную Корею, которые, владея изначально одинаковыми технологиями, пошли по диаметрально разному пути.

«Роботы должны нести уголовную ответственность»

Ученый-юрист из Йельского университета считает, что роботы должны нести моральную и уголовную ответственность за свои поступки. Искусственный интеллект постоянно самообучается, и его алгоритм принятия решений со временем может стать настолько сложным, что любое решение робота будет продиктовано исключительно его собственным выбором.

С появлением все более совершенных систем искусственного интеллекта, все чаще стал подниматься вопрос, а кто несет ответственность за ущерб, причиненный умной машиной. Многие склоняются к тому, что вина лежит на создателе робота или его владельце. Однако, ученый-юрист Йинг Ху из Йельского университета считает, что роботы сами должны привлекаться к ответственности. Его мнение приводит Vocativ.

Йинг Ху считает, что роботы должны нести моральную и уголовную ответственность за свои действия и за любой вред, который они могут причинить. Чтобы аргументировать свое мнение, Ху сравнивает роботов с корпорациями, которые согласно законодательству США считаются «лицами», хотя их деятельность зачастую нельзя отождествлять с действиями отдельных людей в компании.

Робот с искусственным интеллектом постоянно учится и корректирует свое поведение, это влияет на его алгоритмы принятия решений. Эта структура со временем может стать настолько сложной, что нельзя будет приписывать действия робота дефектам его конструкции или влиянию какого-то человека. Другими словами, даже очень хороший и качественно протестированный робот в какой-то момент может принять вредное решение, и оно будет продиктовано исключительно его собственным выбором.

А это значит, что должен быть наказан не создатель этой машины, а сам робот. Наказание может включать в себя деактивацию, перепрограммирование или просто объявление робота преступником. И вопрос уголовной ответственности роботов в свете развития беспилотных автомобилей нужно решать как можно быстрее, считает Ху.

В прошлом году произошла первая авария Tesla Model S со смертельным исходом. После этого вопрос, кто должен отвечать за подобные несчастные случаи с участием роботов стал обсуждаться еще более широко. Европарламент планирует дать роботам правовой статус, что поможет регулировать отношения людей с искусственным интеллектом. Однако, некоторые эксперты считают, что это опасный шаг, который может повлечь непредсказуемые последствия.

Источник - hightech.fm .

Картина дня

наверх