Google Отменил Ограничения на Разработку Оружия с Помощью Искусственного Интеллекта

Технологии Новости

Google Отменил Ограничения на Разработку Оружия с Помощью Искусственного Интеллекта
GOOGLEИскусственный ИнтеллектОружие
  • 📰 aifonline
  • ⏱ Reading Time:
  • 118 sec. here
  • 11 min. at publisher
  • 📊 Quality Score:
  • News: 79%
  • Publisher: 68%

Google удалил пункт из своих правил, запрещавший использование искусственного интеллекта (ИИ) в целях, потенциально вредных для человечества, включая разработку оружия. Корпорация заявила, что демократические страны должны лидировать в разработке ИИ для защиты основных ценностей. Этот шаг вызвал обеспокоенность у экспертов, которые видят в нем угрозу сближения с классической фантастикой о роботах, таких как «Терминатор» и опасения о гонке вооружений с применением ИИ.

Корпорация Google отменила пункт в своих правилах, который запрещал использование искусственного интеллекта (ИИ) в целях, могущих причинить вред человечеству. Под это ограничение подпадала разработка оружия. Однако во вторник, 4 февраля, этот раздел был удален. Журналисты агентства Bloomberg первыми заметили это изменение. Google быстро прокомментировала ситуацию официальным заявлением.

Корпорация подчеркнула, что верит в лидерство демократических стран в сфере разработки ИИ ради защиты основных ценностей: свободы, равенства и уважения к правам человека. Google заявила, что корпорации, правительства и организации, разделяющие эти ценности, должны сотрудничать для разработки проектов, способствующих защите людей, обеспечению глобального роста и поддержанию национальной безопасности. Этот шаг предсказывали многие аналитики. Один из первых указов Дональда Трампа отменял распоряжение Джо Байдена, ограничивавшее ИИ в тех аспектах, которые «представляют риски для потребителей, работников и национальной безопасности». 47-й президент США подписал его 20 января, в день своего инаугурации. Учитывая, что одним из главных советников Трампа является Илон Маск, ситуация приобретает угрожающий характер, напоминающий классику американской фантастики, такую как «Терминатор». Американские IT-гиганты, помимо Google, готовы начать гонку вооружений с использованием ИИ, игнорируя главный закон робототехники Айзека Азимова: «робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред». Похоже, помимо Google разработкой оружия с помощью ИИ в ближайшее время займутся и другие игроки на этом рынке. Демократия превыше всего, Skynet становится всё ближе.Андрей Кошкин, заведующий кафедрой политического анализа и социально-психологических процессов РЭУ им. Плеханова, считает, что удивляться решению Google не стоит. 'Ничего нового в том, что для разработки современных высокотехнологичных вооружений, где будут использованы не то что элементы, а полноценный ИИ, будут задействованы все ресурсы, нет. На сегодняшний день Соединенные Штаты Америки ни перед чем не останавливаются для того, чтобы добиться успеха. К тому же, что касается IT-технологий, судя по всему, они равняются на Китай, или же пытаются быть впереди Китая. Вот для них кто главный конкурент. А если мы говорим о вообще высокотехнологичных вооружениях, то здесь мы тоже имеем свое слово, притом очень веское, в мире. У нас гиперзвуковые вооружения есть, у них — нет. У нас есть „Орешник“, у них — нет. И много чего есть у нас, а у них нет. Почему мы должны равняться на них? У нас есть свои и технологии, и организационные соответствующие проекты, которые мы делаем успешнее, чем американцы,' — заявил Кошкин aif.ru.

Мы обобщили эту новость, чтобы вы могли ее быстро прочитать.Если новость вам интересна, вы можете прочитать полный текст здесь Прочитайте больше:

aifonline /  🏆 3. in RU

GOOGLE Искусственный Интеллект Оружие Разработка Skynet Терминатор Демократия Гоночная Вооружений

Россия Последние новости, Россия Последние новости

Similar News:Вы также можете прочитать подобные новости, которые мы собрали из других источников новостей

Ограничение китайской нейросети DeepSeek в Европе связано с попытками США сохранить технологическое превосходствоОграничение китайской нейросети DeepSeek в Европе связано с попытками США сохранить технологическое превосходствоIT-эксперт Дмитрий Завалишин рассказал, что ограничения, наложенные на китайскую нейросеть DeepSeek в Европе, связаны с стремлением США сохранить контроль над технологическим развитием в сфере искусственного интеллекта.
Прочитайте больше »

Маск заявил об «исчерпании» всех человеческих знаний для обучения искусственного интеллектаМаск заявил об «исчерпании» всех человеческих знаний для обучения искусственного интеллектаИлон Маск говорит, что все человеческие данные для обучения ИИ 'исчерпаны'. Миллиардер предлагает перейти к самообучающимся синтетическим данным, созданным с помощью моделей искусственного интеллекта.
Прочитайте больше »

Гонка воображений: крупнейшая сделка в сфере ИИ изменит мир технологийГонка воображений: крупнейшая сделка в сфере ИИ изменит мир технологийЧем Россия может ответить на решения Дональда Трампа в области искусственного интеллекта
Прочитайте больше »

Эксперт Завалишин: китайский ИИ DeepSeek является продуктом среднего уровняЭксперт Завалишин: китайский ИИ DeepSeek является продуктом среднего уровняРоссийские системы искусственного интеллекта основываются на серьёзных технологиях, заявил эксперт.
Прочитайте больше »

ИИ-модель предсказывает изменения арктических льдов на год впередИИ-модель предсказывает изменения арктических льдов на год впередЮжнокорейские ученые создали инструмент на основе искусственного интеллекта, который с высокой точностью предсказывает изменения в арктических морских льдах на год вперед.
Прочитайте больше »

В Курской области НАТО опробовало новую тактику ведения войны с помощью Искусственного ИнтеллектаВ Курской области НАТО опробовало новую тактику ведения войны с помощью Искусственного ИнтеллектаЭксперты утверждают, что ВСУ при атаке на Курскую область использовали искусственный интеллект для координации действий. Это свидетельствует о новом подходе Запада к ведению военных конфликтов.
Прочитайте больше »



Render Time: 2025-02-19 03:29:41