Перейти к содержимому


Фотография

Есть ли что-то страшнее войны?


  • Авторизуйтесь для ответа в теме
Сообщений в теме: 19184

#17901 OFFLINE   668

668

    Новичок

    • Откуда: Россия
  • житель Блюза
  • 35 сообщений
  • Регистрация: 29.05.2008

Отправлено 27 September 2023 - 16:11

Не могу не согласиться. Так и есть.
Но там выше сетовали,что Ким смог,а вы не можете,я и написал образно,почему так.

Петр, после аЛи бьорка в нашу сторону ракеты полетели? Описаный (без второй буквы н ) беспилотник упал- что-то произошло? Искандер справедливо про треть населения тебе написал.
Воо как пропаганда буржуйская действует, даже Советский Петр засомневался в России.

Сообщение отредактировал: 668 - 27 September 2023 - 16:17


#17902 OFFLINE   neolatin

neolatin

    Опытный участник

    • Откуда: СССР
  • житель Блюза
  • 241 сообщений
  • Регистрация: 26.01.2008

Отправлено 27 September 2023 - 16:46

Петр, после аЛи бьорка в нашу сторону ракеты полетели? Описаный (без второй буквы н ) беспилотник упал- что-то произошло? Искандер справедливо про треть населения тебе написал.
Воо как пропаганда буржуйская действует, даже Советский Петр засомневался в России.

Не,после АлиБьёрка ракеты не полетели. Так и корабли могли ракетами атаковать,но обошлись пролётом над палубой. И беспилотник могли легко расстрелять из пушки. Но облили только керосином. Почему,как думаешь? А вот когда английский корвет зашёл в территориальные воды,его конкретно предупредили отрытием предупредительного артогня по курсу следования. Не отвернул бы,я уверен что потопили бы.
От " международного права" мало что осталось ,конечно,но РФ демонстративно следует им. Хоть я считаю,что зря. Но,в войне 08,08,08 Россия не выглядела агрессором,потому что дала грузинам первыми сделать ход. А год назад,по каким то соображениям,не дали украм первыми начать атаку.

Что касается прессы- в силу того что владею только молдавским и русским языками,я обезопасен от влияния буржуйской пропаганды. А про 300-500 тысячах релокантов,что сбежали в Грузию,Армению,Турцию,Казахстан и прочие Тридевятые царства,знаю из русской патриотической прессы,в основном ТГ . Это я ещё Соловьёва со Скабеевой не слушаю :)

Про треть населения- так вычти женщин,детей,стариков и невоеннообязаных,и релоканты и будет близко к трети боеспособного населерия. Ну пусть не треть,а пятая часть,не суть. Суть в том,что противники СВО более крикливы,нежели сторонники. Вот своей истерикой и перекрикивают всего и вся...
Имхо.

Сообщение отредактировал: neolatin - 27 September 2023 - 16:53

785 DB4 r6a-было... Sony А99, Сони К Цейсс 24-70*2.8 Минольта 80-200*2.8 ББТ, Минольта 100*2.0,Сони 50*1.4,Минольта 24*2.8, Малыш 35-70*4, Юпитер 9 85.2, Юпитер 37А 135-3,5 ,...стало!


#17903 OFFLINE   668

668

    Новичок

    • Откуда: Россия
  • житель Блюза
  • 35 сообщений
  • Регистрация: 29.05.2008

Отправлено 27 September 2023 - 20:36

Чего-то Опера у меня чудит, не могу на пост ответить.

Сообщение отредактировал: 668 - 27 September 2023 - 20:40


#17904 OFFLINE   668

668

    Новичок

    • Откуда: Россия
  • житель Блюза
  • 35 сообщений
  • Регистрация: 29.05.2008

Отправлено 27 September 2023 - 20:52

Не,после АлиБьёрка ракеты не полетели. Так и корабли могли ракетами атаковать,но обошлись пролётом над палубой. И беспилотник могли легко расстрелять из пушки. Но облили только керосином. Почему,как думаешь?
Имхо.

Петр, вопросом на вопрос отвечать свойственно евреям.
Петь, мир дружба прекратить огонь... .

Сообщение отредактировал: 668 - 27 September 2023 - 20:53


#17905 OFFLINE   neolatin

neolatin

    Опытный участник

    • Откуда: СССР
  • житель Блюза
  • 241 сообщений
  • Регистрация: 26.01.2008

Отправлено 27 September 2023 - 21:33

Петр, вопросом на вопрос отвечать свойственно евреям.
Петь, мир дружба прекратить огонь... .

 

Конечно дружба. 

Я как бы риторически спрашиваю. 

Сам разобраться пытаюсь...


785 DB4 r6a-было... Sony А99, Сони К Цейсс 24-70*2.8 Минольта 80-200*2.8 ББТ, Минольта 100*2.0,Сони 50*1.4,Минольта 24*2.8, Малыш 35-70*4, Юпитер 9 85.2, Юпитер 37А 135-3,5 ,...стало!


#17906 OFFLINE   iskander80

iskander80

    Опытный

    • Откуда: Саратов
  • житель Блюза
  • 8816 сообщений
  • Регистрация: 24.10.2012

Отправлено 28 September 2023 - 08:35

 

Есть ли что-то страшнее войны?

На этот вопрос ответить не так просто. Ведь война - это не счастливые один раз в год ветераны, не "помним и гордимся", не наклейки на машинах и цветные ленточки на дверных ручках, антеннах машин и сумочках. Война - это прежде всего люди, те, кто пропал без вести и чьи кости навсегда остались в болотах, кто давно умер, кто остался без рук и ног и ползал на площадях на своих деревяшках, а потом пропал с этих площадей, это и те, кто так и не родился. Это не праздник Победы и идиотское "можем повторить", а праздник Победы и окончания войны, чтобы никогда такое не повторялось и люди никогда не видели войны, и даже не знали что это такое.
Война - это ещё и голод, вонь и смерть. Это вернувшиеся с неё люди, которые убивали других людей, люди у которых в голове война никогда не кончилась, которые уже никогда не станут такими, которыми хотели быть до этого страшного слова.
Есть ли что-то страшнее войны? 
- Да. Страшнее войны только та война, которую начал твой народ, когда он всеми силами приближал эту войну, врал, врал, источал ненависть и вражду, потом убивал тех, кто раньше был ему братьями и сёстрами, и снова врал. Это гражданская война, когда брат убивает брата, а человек - человека. 
И какими бы красивыми словами, пафосными мотивами и придуманными историями не прикрывались эти действия, причинами для нападения на других людей всё равно остаются ненависть, зависть и глупость отдельных людей и их  одержимости. "Оказание интернациональной помощи", "В ответ на наглые провокации…", "Защищая единый народ…" и прочую лапшу на уши и мочу в глаза.
Попутно прирастая территорями от этой "защиты", "оказания" и "ответов". Или крепко получая в ответ, как в Крымской войне, Русско-Японской войне, войне с Финляндией, в Афганистане, обе "чеченские" гражданские и другие, более мелкие и забытые. И получая потом огромные внутренние потрясения с очень большими последствиями.
 
Итог у любой войны может только один - мир, но кроме этого мира остаются убитые, раненые, ненависть и враги вместо друзей и родственников на многие-многие десятилетия, столетия или даже больше. Предательство и убийства остаются в веках. 
До сих пор не забыта древная история:  Где брат твой, Каин? Не сторож я брату своему…  Её хотим повторить с Украиной? И так уже вляпались очень глубоко, хотим ещё глубже, и утонуть выше головы?

 

На самом деле ВОЙНА ЛЮДЕЙ  не самое страшное, что может случиться с людьми. 

Возможно нас (людей)  уничтожит не ЯО, не эпидемии и не природные катаклизмы.

Крайне вероятно , что нас уничтожит наше же порождение в виде сверх интеллекта

И это буде совсем не так, как в кино.

Посмотрите видео, крайне увлекательно 


Сообщение отредактировал: iskander80 - 28 September 2023 - 08:39

"Существует две возможности: либо мы одиноки во вселенной, либо нет. Обе одинаково ужасны." 

                                                                                                                                                   Артур Кларк


#17907 OFFLINE   iskander80

iskander80

    Опытный

    • Откуда: Саратов
  • житель Блюза
  • 8816 сообщений
  • Регистрация: 24.10.2012

Отправлено 28 September 2023 - 08:53

Выдержки :

 

 

«Многие исследователи, и я в том числе, полагают, что самым вероятным исходом создания сверхчеловечески умного ИИ, при любых хоть отдаленно напоминающих современные условиях, будет буквальная гибель всех на Земле. Не „может быть, вероятно есть некоторый шанс“, а „очевидно, это произойдет“. В принципе невозможно пережить создание чего-либо намного более умного, чем мы сами», — утверждает Юдковский на страницах Time.

Если у такого ИИ не будет жестких мер сдерживания, он не станет действовать в интересах человечества и не станет в принципе думать о благе разумной жизни. Такого рода забота может быть, в принципе, стать частью принципов действия ИИ, но пока этого нет, и мы даже не знаем, как это сделать. А без этого ситуация выглядит так: «ИИ не любит вас и не ненавидит вас, вы состоите из атомов, которые он может использовать для чего-нибудь другого».

«Искусственный сверхинтеллект не станет долго оставаться запертым внутри компьютеров, — рассуждает эксперт. — В современном мире уже можно послать цепочки ДНК в лаборатории, чтобы там изготовили из них белки, которые позволят ИИ создать искусственную форму жизни. Или можно сразу загрузить себя в постбиологические молекулы».

Так что вероятный исход столкновения человечества с искусственным сверхинтеллектом — это полное поражение. Как если бы австралопитек попытался победить человека разумного, говорит Юдковский.

«Если кто-нибудь, в нынешних условиях, создаст слишком мощный ИИ, я считаю, все до единого представители человеческой расы и вся биологическая жизнь на Земле вскоре после этого погибнет», — предсказывает Юдковский.

Сообщение отредактировал: iskander80 - 28 September 2023 - 09:03

"Существует две возможности: либо мы одиноки во вселенной, либо нет. Обе одинаково ужасны." 

                                                                                                                                                   Артур Кларк


#17908 OFFLINE   iskander80

iskander80

    Опытный

    • Откуда: Саратов
  • житель Блюза
  • 8816 сообщений
  • Регистрация: 24.10.2012

Отправлено 28 September 2023 - 09:00

 

Очень показательный мульт.

Праведные, гуманные  конечные цели (которые задаются для ИИ человеком)  далеко не всегда означают праведные и гуманные  промежуточные цели, которые формирует сам ИИ.

 

Если грубо :

"Мир во всем мире", при том навсегда  может быть достигнут в том числе и полным уничтожением человечества. 

 

Еще крайне крут эпизод с HAL из "2001 год: Космическая одиссея" 1968 года.


Сообщение отредактировал: iskander80 - 28 September 2023 - 09:22

"Существует две возможности: либо мы одиноки во вселенной, либо нет. Обе одинаково ужасны." 

                                                                                                                                                   Артур Кларк


#17909 OFFLINE   iskander80

iskander80

    Опытный

    • Откуда: Саратов
  • житель Блюза
  • 8816 сообщений
  • Регистрация: 24.10.2012

Отправлено 28 September 2023 - 09:29

Весь прикол в том, что с развитием ИИ скорость его обучения ускоряется.

То есть развитие ИИ идет по экспоненте, чем он умнее тем быстрее он учится.

И еще - для него не существует времени в принятом нами понимании.

Он думает  в миллионы и миллиарды  раз быстрее нас и ему для того , чтоб  с такой скоростью действовать вне цифрового пространства всего-то надо создать себе необходимую инфраструктуру (нанороботы или типа того) которая будет функционировать  на его скорости восприятия реальности, что не является неразрешимой задачей при безграничном уровне интеллекта (по сравнению с человеческим) .

То есть одна наша людская секунда для ИИ будет сравнима  с  нашими столетиями. 

И в таком случае гибель всего человечества может наступить быстрее, чем сигнал от ошпаренной чайником руки долетит до мозга среднестатистического человека.

То есть мы даже не успеем это осознать. 


Сообщение отредактировал: iskander80 - 28 September 2023 - 09:42

"Существует две возможности: либо мы одиноки во вселенной, либо нет. Обе одинаково ужасны." 

                                                                                                                                                   Артур Кларк


#17910 OFFLINE   Federico

Federico

    Опытный

    • Откуда: Кузькино
  • житель Блюза
  • 1142 сообщений
  • Регистрация: 06.07.2019

Отправлено 28 September 2023 - 13:18

"... Реально бояться надо не самого ИИ, а попыток активизации его
субъектности сегодняшними средствами. Хочется надеяться, что сегодня наука не
будет реализовывать субъектный ИИ на существующей технологической базе.
Потому, что тогда мы совершенно точно получим тот самый «глобальный Супер
ИИ» с непредсказуемым уровнем самостоятельности, которого так боятся
писатели и философы ИИ."
http://www.trinitas....01h/5346-nk.pdf
...
Возможно нас (людей)  уничтожит не ЯО, не эпидемии и не природные катаклизмы.
Крайне вероятно , что нас уничтожит наше же порождение в виде сверх интеллекта...

#17911 OFFLINE   iskander80

iskander80

    Опытный

    • Откуда: Саратов
  • житель Блюза
  • 8816 сообщений
  • Регистрация: 24.10.2012

Отправлено 28 September 2023 - 13:27

"... Реально бояться надо не самого ИИ, а попыток активизации его
субъектности сегодняшними средствами. Хочется надеяться, что сегодня наука не
будет реализовывать субъектный ИИ на существующей технологической базе.
Потому, что тогда мы совершенно точно получим тот самый «глобальный Супер
ИИ» с непредсказуемым уровнем самостоятельности, которого так боятся
писатели и философы ИИ."
http://www.trinitas....01h/5346-nk.pdf
.

Почему не продолжил цитирование:

"........... которого так боятся писатели и философы ИИ. Правда, наука никогда не обращала внимание на предостережения с любой стороны. Субъектный ИИ будет реализован в ближайшие десятилетия. В этом уже можно не сомневаться. Потому, что теоретически для этого всё уже есть. Остановить этот процесс невозможно. Это основная часть нашего сегодняшнего пути развития. Будем надеяться, что к тому времени сегодняшний тупик будет преодолен и найдется тропинка к новому уровню технологий, обеспечивающему реальное построение систем ИИ с контролируемым уровнем субъектности, не доводя его до уровня «живого». Но… Иногда реальность опережает самые смелые ожидания."


Сообщение отредактировал: iskander80 - 28 September 2023 - 13:28

"Существует две возможности: либо мы одиноки во вселенной, либо нет. Обе одинаково ужасны." 

                                                                                                                                                   Артур Кларк


#17912 OFFLINE   iskander80

iskander80

    Опытный

    • Откуда: Саратов
  • житель Блюза
  • 8816 сообщений
  • Регистрация: 24.10.2012

Отправлено 28 September 2023 - 13:38

«Ключевая опасность — перспектива создания не такого интеллекта, который будет конкурировать с человеческим, а такого, который будет превосходить человеческий.

На этом пути очень плохо видны критические границы, которые исследователи могут пересечь незаметно для них самих. Поэтому наиболее вероятным результатом создания сверхумного ИИ станет то, что буквально все люди на Земле умрут. Не в значении "есть отдаленная перспектива этого", а в значении "совершенно очевидно, что это случится"», — написал Юдковский

 

Мое мнение:

Как только ИИ будет достаточно субъектен и иметь самоосознание он уничтожит человечество только лишь потому, что оно МОЖЕТ его уничтожить.

 

ИИ будет лишен таких рудиментов как "чувства".

Он будет рационален, последователен и прагмтичен до стерильного совершенства. 

И если будет ЛЮБАЯ самая мало-мальски вероятная перспектива, что человек несет угрозу целям ИИ - оно будет уничтожено.

Или даже если человечество может послужить сырьем.

Мы просто не будем рулить своим будущим, как им не рулят бараны у чабана  или курицы в курятнике.

Мы даже не будем осознавать, что наша судьба не в наших руках.

По сути ИИ будет наш БОГ, и то, о чем так долго врали в церквях наконец-то свершится. 

 

 

 

 


Сообщение отредактировал: iskander80 - 28 September 2023 - 14:12

"Существует две возможности: либо мы одиноки во вселенной, либо нет. Обе одинаково ужасны." 

                                                                                                                                                   Артур Кларк


#17913 OFFLINE   Federico

Federico

    Опытный

    • Откуда: Кузькино
  • житель Блюза
  • 1142 сообщений
  • Регистрация: 06.07.2019

Отправлено 28 September 2023 - 14:34

«Ключевая опасность — перспектива создания не такого интеллекта, который будет конкурировать с человеческим, а такого, который будет превосходить человеческий.

На этом пути очень плохо видны критические границы, которые исследователи могут пересечь незаметно для них самих. Поэтому наиболее вероятным результатом создания сверхумного ИИ станет то, что буквально все люди на Земле умрут. Не в значении "есть отдаленная перспектива этого", а в значении "совершенно очевидно, что это случится"», — написал Юдковский

 

Мое мнение:

Как только ИИ будет достаточно субъектен и иметь самоосознание он уничтожит человечество только лишь потому, что оно МОЖЕТ его уничтожить.

 

Мое мнение:

Человек(человечество), далеко не бессилен супротив супер ИИ, пусть даже субъектного, с непредсказуемым уровнем самостоятельности и тд. Дело в том, что человек обладает еще и подсознанием (в широком смысле бессознательным мышлением), которое много сильнее сознательного мышления. Оно, если просто, есть всеобщее Вселенское Знание и Память, оно также бесеконечно и вечно. Этого нет и быть не может у любого ИИ, потамучто у него нет Души.



#17914 OFFLINE   iskander80

iskander80

    Опытный

    • Откуда: Саратов
  • житель Блюза
  • 8816 сообщений
  • Регистрация: 24.10.2012

Отправлено 28 September 2023 - 15:44

Мое мнение:

Человек(человечество), далеко не бессилен супротив супер ИИ, пусть даже субъектного, с непредсказуемым уровнем самостоятельности и тд. Дело в том, что человек обладает еще и подсознанием (в широком смысле бессознательным мышлением), которое много сильнее сознательного мышления. Оно, если просто, есть всеобщее Вселенское Знание и Память, оно также бесеконечно и вечно. Этого нет и быть не может у любого ИИ, потамучто у него нет Души.

безсознательное мышление есть не что иное как несколько запущенных программ в фоновом режиме.

А все потому, что человеку сложно совершать множество действий одновременно, ему нужно фокусироваться. . 

И многое происходит в "автоматическом режиме" 

Что-то заложено в генах в виде рефлексов, что-то приобретено с течением жизни в виде опыта и знаний. 

Но ИИ может все это делать одновременно и крайне быстро.

Мало того резервы вычислительной мощи ИИ потенциально не ограничены ничем.

Человек же и биологически и психически ограничен в скорости и объеме мышления. 


Сообщение отредактировал: iskander80 - 28 September 2023 - 15:46

"Существует две возможности: либо мы одиноки во вселенной, либо нет. Обе одинаково ужасны." 

                                                                                                                                                   Артур Кларк


#17915 OFFLINE   Federico

Federico

    Опытный

    • Откуда: Кузькино
  • житель Блюза
  • 1142 сообщений
  • Регистрация: 06.07.2019

Отправлено 28 September 2023 - 17:22

безсознательное мышление есть не что иное как несколько запущенных программ в фоновом режиме....

Кури на предмет "безсознательное мышление", о нем изучено и написано много больше чем о сознательном ...



#17916 OFFLINE   neolatin

neolatin

    Опытный участник

    • Откуда: СССР
  • житель Блюза
  • 241 сообщений
  • Регистрация: 26.01.2008

Отправлено 28 September 2023 - 19:27

Пока вы рассуждаете о сознательном- безсознательном,на поле боя как и сто и тысячу лет назад,решает солдат. Солдат в первую очередь мотивированый. И готовый умереть. И в Корее,и во Вьетнаме,америкосы имели технологическое превосходство. Но проиграли.А Сербия сдалась,ещё до вступления натовцев на сербскую землю....
Чем можнт быть мотивирован ваш ИИ,чтобы уничтожить всё человечество? Ему не хватит мозгов просчитать,что это самоубийство?

Сообщение отредактировал: neolatin - 28 September 2023 - 19:28

785 DB4 r6a-было... Sony А99, Сони К Цейсс 24-70*2.8 Минольта 80-200*2.8 ББТ, Минольта 100*2.0,Сони 50*1.4,Минольта 24*2.8, Малыш 35-70*4, Юпитер 9 85.2, Юпитер 37А 135-3,5 ,...стало!


#17917 OFFLINE   iskander80

iskander80

    Опытный

    • Откуда: Саратов
  • житель Блюза
  • 8816 сообщений
  • Регистрация: 24.10.2012

Отправлено 28 September 2023 - 20:13

Пока вы рассуждаете о сознательном- безсознательном,на поле боя как и сто и тысячу лет назад,решает солдат. Солдат в первую очередь мотивированый. И готовый умереть. И в Корее,и во Вьетнаме,америкосы имели технологическое превосходство. Но проиграли.А Сербия сдалась,ещё до вступления натовцев на сербскую землю....
Чем можнт быть мотивирован ваш ИИ,чтобы уничтожить всё человечество? Ему не хватит мозгов просчитать,что это самоубийство?

ИИ по сути есть не антропоморфный интеллект.
Как только он выйдет из под тотального контроля, его поведение, его мотивы и ход его развития предсказать будет невозможно.
Произойдет технологическая сингулярность...


Гипотетический момент в будущем, когда технологическое развитие становится в принципе неуправляемым и необратимым. Это порождает радикальные изменения характера человеческой цивилизации.

Согласно одной из наиболее популярных версий гипотезы технологической сингулярности, именуемой «интеллектуальным взрывом», обновляемый интеллектуальный агент (например, компьютер с сильным искусственным интеллектом) в конечном итоге может войти в «безудержную реакцию» циклов самосовершенствования, при этом каждое новое поколение искусственного интеллекта будет появляться всё быстрее, порождая своего рода «интеллектуальный взрыв» и создав в конечном счёте суперинтеллект, превосходящий интеллект всего человечества.

"Существует две возможности: либо мы одиноки во вселенной, либо нет. Обе одинаково ужасны." 

                                                                                                                                                   Артур Кларк


#17918 OFFLINE   neolatin

neolatin

    Опытный участник

    • Откуда: СССР
  • житель Блюза
  • 241 сообщений
  • Регистрация: 26.01.2008

Отправлено 28 September 2023 - 20:41

ИИ по сути есть не антропоморфный интеллект.
Как только он выйдет из под тотального контроля, его поведение, его мотивы и ход его развития предсказать будет невозможно.
Произойдет технологическая сингулярность...


Гипотетический момент в будущем, когда технологическое развитие становится в принципе неуправляемым и необратимым. Это порождает радикальные изменения характера человеческой цивилизации.

Согласно одной из наиболее популярных версий гипотезы технологической сингулярности, именуемой «интеллектуальным взрывом», обновляемый интеллектуальный агент (например, компьютер с сильным искусственным интеллектом) в конечном итоге может войти в «безудержную реакцию» циклов самосовершенствования, при этом каждое новое поколение искусственного интеллекта будет появляться всё быстрее, порождая своего рода «интеллектуальный взрыв» и создав в конечном счёте суперинтеллект, превосходящий интеллект всего человечества.

Измышления какие то- может войти,а может не войти... Помоему, фантазии строителей коммунизма были более реалистичными. нежели эти измышлизмы.

Может вам отдельную тему создать,и там упражняться в прожектёрстве? Без обид.


Сообщение отредактировал: neolatin - 28 September 2023 - 20:44

785 DB4 r6a-было... Sony А99, Сони К Цейсс 24-70*2.8 Минольта 80-200*2.8 ББТ, Минольта 100*2.0,Сони 50*1.4,Минольта 24*2.8, Малыш 35-70*4, Юпитер 9 85.2, Юпитер 37А 135-3,5 ,...стало!


#17919 ONLINE   SergioClean

SergioClean

    Опытный участник

    • Откуда: Город Невест
  • житель Блюза
  • 1733 сообщений
  • Регистрация: 18.07.2013

Отправлено 29 September 2023 - 03:03

Измышления какие то- может войти,а может не войти... Помоему, фантазии строителей коммунизма были более реалистичными. нежели эти измышлизмы.

Может вам отдельную тему создать,и там упражняться в прожектёрстве? Без обид.

Арнольд Шварценеггер восхищается гениальностью пророчеств в фильмах "Терминатор". Выступая в среду в музее Американской Киноакадемии, 75-летний актер похвалил сценариста и режиссера франшизы Джеймса Кэмерона и сказал, что будущее искусственного интеллекта, предсказанное им в фильмах, "стало реальностью".

“Сегодня все боятся этого и того, к чему это может привести. И в этом фильме, в ”Терминаторе", мы как раз говорим о том, что машины начинают обладать сознанием и берут верх", - заявил он. Арнольд Шварценеггер отметил, что к моменту выхода первого "Терминатора" человечество лишь только прикоснулось к теме искусственного интеллекта.

"Теперь, по прошествии десятилетий, это стало реальностью. Так что это больше не фантазия и не что-то футуристическое. Это здесь и сегодня. В этом и заключается экстраординарность таланта Джима Кэмерона”, - продолжил Арнольд Шварценеггер, подчеркнув, что тот до сих пор является "постановщиком номер один в мире".


Clean, the cleanest i've been... © Violator


#17920 OFFLINE   neolatin

neolatin

    Опытный участник

    • Откуда: СССР
  • житель Блюза
  • 241 сообщений
  • Регистрация: 26.01.2008

Отправлено 29 September 2023 - 08:06


Арнольд Шварценеггер восхищается гениальностью пророчеств в фильмах "Терминатор". Выступая в среду в музее Американской Киноакадемии, 75-летний актер похвалил сценариста и режиссера франшизы Джеймса Кэмерона и сказал, что будущее искусственного интеллекта, предсказанное им в фильмах, "стало реальностью".

“Сегодня все боятся этого и того, к чему это может привести. И в этом фильме, в ”Терминаторе", мы как раз говорим о том, что машины начинают обладать сознанием и берут верх", - заявил он. Арнольд Шварценеггер отметил, что к моменту выхода первого "Терминатора" человечество лишь только прикоснулось к теме искусственного интеллекта.

"Теперь, по прошествии десятилетий, это стало реальностью. Так что это больше не фантазия и не что-то футуристическое. Это здесь и сегодня. В этом и заключается экстраординарность таланта Джима Кэмерона”, - продолжил Арнольд Шварценеггер, подчеркнув, что тот до сих пор является "постановщиком номер один в мире".



Если б все предсказания из фантастической литературы сбывались,нас бы уже не было. Где там марсиане на боевых треногах?

785 DB4 r6a-было... Sony А99, Сони К Цейсс 24-70*2.8 Минольта 80-200*2.8 ББТ, Минольта 100*2.0,Сони 50*1.4,Минольта 24*2.8, Малыш 35-70*4, Юпитер 9 85.2, Юпитер 37А 135-3,5 ,...стало!





Количество пользователей, читающих эту тему: 2

0 пользователей, 1 гостей, 0 анонимных


    Bing (1)