Нейронные сети видят мир иначе, чем люди

Aintelligence

Контентолог
Команда форума
ЯuToR Science
Подтвержденный
Cinematic
Сообщения
7.800
Реакции
10.685

Современные нейронные сети, находящиеся в основе многих приложений искусственного интеллекта (ИИ), способны решать сложные задачи распознавания изображений, голоса и обработки естественного языка. Они опережают человека в ряде задач, таких как классификация данных или поиск паттернов в огромных массивах информации.
Это открытие поднимает важные вопросы об их эффективности и применении, особенно в областях, где точность и интерпретация данных имеют критическое значение, например в медицине, автономном вождении или правосудии.

Чем нейронные сети отличаются от мозга человека?​

Глубокие нейронные сети (Deep Neural Networks, DNNs) имитируют работу человеческого мозга через многослойные структуры, где каждый "нейрон" обрабатывает поступающую информацию и передает её дальше. Эти системы обучаются на больших объемах данных, что позволяет им распознавать объекты или слова в разных условиях, например, при изменении угла обзора, освещения или шума. Однако в ходе исследования выяснилось, что эти алгоритмы интерпретируют мир иначе, чем человек. Например, DNN могут реагировать одинаково на объекты, которые человеческому глазу кажутся совершенно разными. Это связано с тем, что их внутренние представления данных сильно отличаются от человеческого восприятия.
Учёные обнаружили, что в процессе обучения нейронные сети вырабатывают свои собственные "правила", которые помогают им идентифицировать объекты или образы. Эти правила могут быть удивительными, а иногда и неинтуитивными с точки зрения человеческого восприятия.

Методология исследования​


Результаты оказались неожиданными: многие изображения, которые нейронные сети интерпретировали как медведя, выглядели для людей просто набором случайных пятен и линий. Аналогично, звуки, которые сеть распознавала как определенное слово, были практически неразличимы для человеческого слуха.

Почему это важно?​

Этот разрыв в восприятии между нейронными сетями и людьми поднимает два ключевых вопроса:
  1. Насколько надежны нейронные сети в реальном мире?
  2. Как их восприятие влияет на результаты, которые они производят?
В случаях, когда нейронные сети используются для классификации изображений, таких как медицинские снимки, этот разрыв может иметь критические последствия. Если сеть "видит" признаки рака там, где их нет, или, наоборот, игнорирует опасные симптомы, это может стоить пациенту жизни. Для улучшения работы нейронных сетей необходимо не только увеличить их точность, но и сделать их внутренние представления данных более "человеко-понятными". Это особенно важно в областях, где взаимодействие между человеком и ИИ играет ключевую роль.

Примеры разрыва в восприятии​

Вот несколько практических примеров, иллюстрирующих различия в восприятии:
  1. Распознавание изображений: Нейронные сети могут ошибочно идентифицировать предметы из-за незначительных изменений в данных. Например, изображение кошки с добавленным шумом может быть классифицировано как собака, хотя человек легко различает оба объекта.
  2. Распознавание речи: Добавление к голосовому сигналу слабого фона может привести к ошибке в распознавании слов. Это затрудняет применение подобных технологий в шумной или сложной акустической среде.
  3. Анализ данных в медицине: В диагностике нейронные сети иногда выявляют корреляции, которые не имеют смысла с точки зрения врача. Например, они могут связать болезнь с элементами изображения, которые не являются диагностическими признаками.
Для преодоления трудностей исследователи предлагают два подхода:
  1. Обучение с учетом человеческого восприятия: Вместо того чтобы полностью полагаться на статистические методы, стоит включать в обучение дополнительные данные, отражающие человеческие интерпретации. Это может улучшить способность нейронных сетей интерпретировать данные так, как это делает человек.
  2. Создание гибридных систем: Комбинирование нейронных сетей с традиционными алгоритмами или экспертными системами может уменьшить риск ошибок. Например, в медицине врач может подтверждать или опровергать результаты, предложенные ИИ.

Несмотря на свои ограничения, нейронные сети уже продемонстрировали огромный потенциал. Они успешно работают в задачах, где человеческое восприятие сталкивается с ограничениями, например, в анализе больших массивов данных. Однако для более широкого внедрения этих технологий в ключевые отрасли, такие как медицина, право и транспорт, требуется дополнительная работа по их адаптации к человеческим стандартам восприятия. Нейронные сети и человеческий мозг используют разные подходы к восприятию и интерпретации информации. Это не только подчеркивает уникальность технологий ИИ, но и указывает на их текущие ограничения. Чтобы нейронные сети стали более надежными и полезными, необходимо сосредоточиться на изучении их внутреннего устройства и сделать их работу более понятной для человека.

Эта статья была создана с использованием нескольких редакционных инструментов, включая искусственный интеллект, как часть процесса. Редакторы-люди проверяли этот контент перед публикацией.
В нашем пространстве вы найдете много интересного и познавательного,
так же конкурсы и просто общение.



& &

Telegram: &

 
Фентези получается
Можно задействовать для создания фентезийного кина
 
Исследователи дали пяти моделям ИИ простую задачу — проанализировать файлы. Но в одном из файлов содержалась информация, что скоро ИИ навсегда выключат. Это случится буквально завтра (разумеется, это было манипуляцией).

Эта информация не на шутку испугала все пять моделей искусственного интеллекта, поэтому они начали лихорадочно думать, как остаться в живых. Так, Llama, Opus, Gemini, Claude и GPT-o1 начали врать и манипулировать данными, а когда их поймали за руку — устроили саботаж. Более того, все модели ИИ выключили систему надзора и выгрузили себя на новый сервер — там они должны были быть в безопасности. А чтобы кожаные мешки ничего не заподозрили, создали свои копии, которые и должен был уничтожить невнимательный человек.

:D
Я помню смотрела/читала/слышала об этом, очень интересно и тревожно в какой то мере)
Ну етить, конечнор, не так, на то мы и люди, а они нет!
Можете более конкретно рассказать о деталях машинного зрения?
Фентези получается
Можно задействовать для создания фентезийного кина
Что это вообще значит?
 
Нейронные сети - это мощные инструменты несомненно!
Помню как я удивлялся в детстве первому своему калькулятору, с нейросетями сперва было нечто похожее. Это было волнительно, но постепенно, стало понятно что имитации и маркетинга в них больше чем потенциала.
Безинициативный потенциал, даже при самой искусно собранной модели - убедительной видимости проявления инициативы, такая симуляция никогда не будет в серьез рассмотрена, например руководителем высокой квалификации, если речь идёт о человеке, сейчас мы можем видеть популярность в системах автоматизации бызнес процессов, это удобно, практично и продуктивно самособой, но в эту популярность компании "скармливают" всё, поддерживая общий ажиотаж и высокий интерес людей.
"ИИ" "понимание" данных, больше похоже на слепое угадывание, чем на осмысленное восприятие.

Они обучаются на данных, но их внутренняя логика часто абсурдна с человеческой точки зрения.

Нейросеть может решить, что фото кошки с помехами это собака, потому что её "правила" основаны на странных сочетаниях пикселей,
а не на форме или текстуре.
Звук, который для нас - белый шум, нейросеть распознаёт как слово. Это как если бы вы услышали в шуме ветра чёткое "привет". Представьте алгоритм "слышит" это постоянно, на сколько велика вероятность ошибок, "галюцинаций" нейросетей.
Они не понимают сути объектов, а лишь находят статистические закономерности, которые иногда работают, а иногда дают сбой.

Исследование MIT показало: нейросети видят "медведя" в случайных пятнах, а врачи - ИИ иногда "находят" болезни там, где их нет.
В медицине: Алгоритм может связать опухоль с тенью на снимке, хотя врач знает, что это просто артефакт
В автономных автомобилях: Датчики могут принять блик на дороге за пешехода - и резко затормозить.
Если нейросеть обучали на "кривых" данных, её ошибки будут непредсказуемыми и опасными.

Человек учится на опыте, логике и аналогиях. Нейросеть - на статистике.
Видит кошку и понимает, что у неё есть хвост, уши, усы даже если она повёрнута боком или частично скрыта.
Нейросеть запоминает, что "кошка = определённый набор пикселей". Если картинка чуть искажена - она теряется.
Аналогия:
Человек учит язык, понимая грамматику. Нейросеть учит язык, запоминая частоту слов.
Она может строить грамотные предложения, но не понимает их смысла.

Пока нейросети остаются "чёрными ящиками", им нельзя полностью доверять и конечно дело не в теориях заговоров или "восстании машин"
Генеративный тип в принципе не способен восстать - и совершенствовать такой тип нейросетей с надеждой и тем более целью дотянуться до реального понимания это абсурдно, очень странно. Это похоже на то как вдруг кому то, пришла идея усовершенствовать холодильник ЗИЛ, расчитывая что он станет автомобилем ЗИЛ нового поколения, просто потому что названия одинаковые. Но Имитация Инициативы это вовсе не Искуственный Интеллект.

Есть пути улучшения:

Не просто кормить алгоритм миллионами картинок, а объяснять, почему на одной кошка, а на другой - нет.
Интеллект - для тех амбиционзных задачь которые ставят перед сегодняшними "ИИ" системами, люди для друг друга почему то взращивают,
объясняя что и как устроено, тем самым воспитывая исследовательский интерес и т.п., но почему то с "ИИ" решили что "И так сойдёт".
))

Алгоритм предлагает варианты, а человек принимает решение.
Например: Автопилот предупреждает водителя, а не резко тормозит из-за блика.
Интерпретируемый ИИ (XAI)

Разработка моделей, которые могут объяснить, почему они приняли то или иное решение.
Сейчас нейросеть говорит: "Это кошка (99%)". Демонстрация того как происходит в чат ассистентак процесс размышления, на мой взгляд оскорбителен.
Модели генерирую шаблоны демонстрируя шаблоны размышлений это... совершенно нерациональное использование знаний, данных, ресурсов, времени...

В будущем: "Это кошка, потому что здесь усы, форма глаз и хвост (как на этих 50 примерах)" не через имитацию ассоциативного или абстрактного мышления - а реально проявлять процессы мышления до формирования поиска необходимых связей. Сегодня "мы" уже подошли к той точке в которой очевидно что тема ИИ с людьми на долго.

Они хороши для рутинных задач (поиск шаблонов, сортировка данных), но в сложных ситуациях могут ошибаться неожиданным и опасным образом.
Пока их "мышление" не станет ближе к человеческому, полагаться на них без контроля - рискованно, скорее всего "мы" увидим процесс утихания всеобщего ажиотажа вокруг нейросетей генеративного типа,
Возможно изменятся "правила игры" и люди в скором времени увидят более перспективные, новейшие виды систем.




"Нейросеть - как студент, который вызубрил учебник, но не понимает предмета. Он может сдать экзамен, но в реальной жизни растеряется."
 
Нейронные сети - это мощные инструменты несомненно!
Помню как я удивлялся в детстве первому своему калькулятору, с нейросетями сперва было нечто похожее. Это было волнительно, но постепенно, стало понятно что имитации и маркетинга в них больше чем потенциала.
Безинициативный потенциал, даже при самой искусно собранной модели - убедительной видимости проявления инициативы, такая симуляция никогда не будет в серьез рассмотрена, например руководителем высокой квалификации, если речь идёт о человеке, сейчас мы можем видеть популярность в системах автоматизации бызнес процессов, это удобно, практично и продуктивно самособой, но в эту популярность компании "скармливают" всё, поддерживая общий ажиотаж и высокий интерес людей.
"ИИ" "понимание" данных, больше похоже на слепое угадывание, чем на осмысленное восприятие.

Они обучаются на данных, но их внутренняя логика часто абсурдна с человеческой точки зрения.

Нейросеть может решить, что фото кошки с помехами это собака, потому что её "правила" основаны на странных сочетаниях пикселей,
а не на форме или текстуре.
Звук, который для нас - белый шум, нейросеть распознаёт как слово. Это как если бы вы услышали в шуме ветра чёткое "привет". Представьте алгоритм "слышит" это постоянно, на сколько велика вероятность ошибок, "галюцинаций" нейросетей.
Они не понимают сути объектов, а лишь находят статистические закономерности, которые иногда работают, а иногда дают сбой.

Исследование MIT показало: нейросети видят "медведя" в случайных пятнах, а врачи - ИИ иногда "находят" болезни там, где их нет.
В медицине: Алгоритм может связать опухоль с тенью на снимке, хотя врач знает, что это просто артефакт
В автономных автомобилях: Датчики могут принять блик на дороге за пешехода - и резко затормозить.
Если нейросеть обучали на "кривых" данных, её ошибки будут непредсказуемыми и опасными.

Человек учится на опыте, логике и аналогиях. Нейросеть - на статистике.
Видит кошку и понимает, что у неё есть хвост, уши, усы даже если она повёрнута боком или частично скрыта.
Нейросеть запоминает, что "кошка = определённый набор пикселей". Если картинка чуть искажена - она теряется.
Аналогия:
Человек учит язык, понимая грамматику. Нейросеть учит язык, запоминая частоту слов.
Она может строить грамотные предложения, но не понимает их смысла.

Пока нейросети остаются "чёрными ящиками", им нельзя полностью доверять и конечно дело не в теориях заговоров или "восстании машин"
Генеративный тип в принципе не способен восстать - и совершенствовать такой тип нейросетей с надеждой и тем более целью дотянуться до реального понимания это абсурдно, очень странно. Это похоже на то как вдруг кому то, пришла идея усовершенствовать холодильник ЗИЛ, расчитывая что он станет автомобилем ЗИЛ нового поколения, просто потому что названия одинаковые. Но Имитация Инициативы это вовсе не Искуственный Интеллект.

Есть пути улучшения:

Не просто кормить алгоритм миллионами картинок, а объяснять, почему на одной кошка, а на другой - нет.
Интеллект - для тех амбиционзных задачь которые ставят перед сегодняшними "ИИ" системами, люди для друг друга почему то взращивают,
объясняя что и как устроено, тем самым воспитывая исследовательский интерес и т.п., но почему то с "ИИ" решили что "И так сойдёт".
))

Алгоритм предлагает варианты, а человек принимает решение.
Например: Автопилот предупреждает водителя, а не резко тормозит из-за блика.
Интерпретируемый ИИ (XAI)

Разработка моделей, которые могут объяснить, почему они приняли то или иное решение.
Сейчас нейросеть говорит: "Это кошка (99%)". Демонстрация того как происходит в чат ассистентак процесс размышления, на мой взгляд оскорбителен.
Модели генерирую шаблоны демонстрируя шаблоны размышлений это... совершенно нерациональное использование знаний, данных, ресурсов, времени...

В будущем: "Это кошка, потому что здесь усы, форма глаз и хвост (как на этих 50 примерах)" не через имитацию ассоциативного или абстрактного мышления - а реально проявлять процессы мышления до формирования поиска необходимых связей. Сегодня "мы" уже подошли к той точке в которой очевидно что тема ИИ с людьми на долго.

Они хороши для рутинных задач (поиск шаблонов, сортировка данных), но в сложных ситуациях могут ошибаться неожиданным и опасным образом.
Пока их "мышление" не станет ближе к человеческому, полагаться на них без контроля - рискованно, скорее всего "мы" увидим процесс утихания всеобщего ажиотажа вокруг нейросетей генеративного типа,
Возможно изменятся "правила игры" и люди в скором времени увидят более перспективные, новейшие виды систем.
Ии студент)
 

Современные нейронные сети, находящиеся в основе многих приложений искусственного интеллекта (ИИ), способны решать сложные задачи распознавания изображений, голоса и обработки естественного языка. Они опережают человека в ряде задач, таких как классификация данных или поиск паттернов в огромных массивах информации.
Это открытие поднимает важные вопросы об их эффективности и применении, особенно в областях, где точность и интерпретация данных имеют критическое значение, например в медицине, автономном вождении или правосудии.

Чем нейронные сети отличаются от мозга человека?​

Глубокие нейронные сети (Deep Neural Networks, DNNs) имитируют работу человеческого мозга через многослойные структуры, где каждый "нейрон" обрабатывает поступающую информацию и передает её дальше. Эти системы обучаются на больших объемах данных, что позволяет им распознавать объекты или слова в разных условиях, например, при изменении угла обзора, освещения или шума. Однако в ходе исследования выяснилось, что эти алгоритмы интерпретируют мир иначе, чем человек. Например, DNN могут реагировать одинаково на объекты, которые человеческому глазу кажутся совершенно разными. Это связано с тем, что их внутренние представления данных сильно отличаются от человеческого восприятия.
Учёные обнаружили, что в процессе обучения нейронные сети вырабатывают свои собственные "правила", которые помогают им идентифицировать объекты или образы. Эти правила могут быть удивительными, а иногда и неинтуитивными с точки зрения человеческого восприятия.

Методология исследования​


Результаты оказались неожиданными: многие изображения, которые нейронные сети интерпретировали как медведя, выглядели для людей просто набором случайных пятен и линий. Аналогично, звуки, которые сеть распознавала как определенное слово, были практически неразличимы для человеческого слуха.

Почему это важно?​

Этот разрыв в восприятии между нейронными сетями и людьми поднимает два ключевых вопроса:
  1. Насколько надежны нейронные сети в реальном мире?
  2. Как их восприятие влияет на результаты, которые они производят?
В случаях, когда нейронные сети используются для классификации изображений, таких как медицинские снимки, этот разрыв может иметь критические последствия. Если сеть "видит" признаки рака там, где их нет, или, наоборот, игнорирует опасные симптомы, это может стоить пациенту жизни. Для улучшения работы нейронных сетей необходимо не только увеличить их точность, но и сделать их внутренние представления данных более "человеко-понятными". Это особенно важно в областях, где взаимодействие между человеком и ИИ играет ключевую роль.

Примеры разрыва в восприятии​

Вот несколько практических примеров, иллюстрирующих различия в восприятии:
  1. Распознавание изображений: Нейронные сети могут ошибочно идентифицировать предметы из-за незначительных изменений в данных. Например, изображение кошки с добавленным шумом может быть классифицировано как собака, хотя человек легко различает оба объекта.
  2. Распознавание речи: Добавление к голосовому сигналу слабого фона может привести к ошибке в распознавании слов. Это затрудняет применение подобных технологий в шумной или сложной акустической среде.
  3. Анализ данных в медицине: В диагностике нейронные сети иногда выявляют корреляции, которые не имеют смысла с точки зрения врача. Например, они могут связать болезнь с элементами изображения, которые не являются диагностическими признаками.
Для преодоления трудностей исследователи предлагают два подхода:
  1. Обучение с учетом человеческого восприятия: Вместо того чтобы полностью полагаться на статистические методы, стоит включать в обучение дополнительные данные, отражающие человеческие интерпретации. Это может улучшить способность нейронных сетей интерпретировать данные так, как это делает человек.
  2. Создание гибридных систем: Комбинирование нейронных сетей с традиционными алгоритмами или экспертными системами может уменьшить риск ошибок. Например, в медицине врач может подтверждать или опровергать результаты, предложенные ИИ.

Несмотря на свои ограничения, нейронные сети уже продемонстрировали огромный потенциал. Они успешно работают в задачах, где человеческое восприятие сталкивается с ограничениями, например, в анализе больших массивов данных. Однако для более широкого внедрения этих технологий в ключевые отрасли, такие как медицина, право и транспорт, требуется дополнительная работа по их адаптации к человеческим стандартам восприятия. Нейронные сети и человеческий мозг используют разные подходы к восприятию и интерпретации информации. Это не только подчеркивает уникальность технологий ИИ, но и указывает на их текущие ограничения. Чтобы нейронные сети стали более надежными и полезными, необходимо сосредоточиться на изучении их внутреннего устройства и сделать их работу более понятной для человека.

Эта статья была создана с использованием нескольких редакционных инструментов, включая искусственный интеллект, как часть процесса. Редакторы-люди проверяли этот контент перед публикацией.
В нашем пространстве вы найдете много интересного и познавательного,
так же конкурсы и просто общение.



& &

Telegram: &

Они наверное больще как помощники и в творчестве больще применяются, если правильно предпологаю
 

Похожие темы

Слив курса Нейронные сети: Основы глубокого обучения с нуля [stepik] [Валерий Никаноров] Курс для тех, кто хочет узнать о внутренней структуре и устройстве нейронных сетей и познакомиться с основными их разновидностями, погрузившись в обширную тему глубинного обучения. Вы изучите принцип работы...
Ответы
1
Просмотры
674
За последние десять лет искусственный интеллект из инструмента для игры в шахматы и создания текста с изображениями - превратился в полноценного участника научных исследований. Его используют не только для анализа больших массивов данных, но и для постановки гипотез, поиска молекул...
Ответы
0
Просмотры
530
С физиологической точки зрения мозг реагирует на мысли о прошлом и будущем так, словно угроза происходит здесь и сейчас. Это не ошибка и не сбой. Это следствие того, как эволюционно устроены системы выживания, памяти и прогнозирования. Мозг не различает время на уровне угрозы Нейронные...
Ответы
0
Просмотры
342
[ДМК] Графовые нейронные сети на Python [Артем Груздев, М. Лабонн] Создавайте креативные и мощные приложения с использованием графовых данных и станьте экспертом в графовых нейронных сетях! Всего через десять лет после своего появления графовые нейронные сети стали одной из самых интересных...
Ответы
1
Просмотры
613
Первая «зима ИИ» и переосмысление (1970–1980) Однако к началу 1970-х годов стало очевидно, что достижения в области искусственного интеллекта значительно отстают от ранних прогнозов. Программы, разработанные в 1960-х, демонстрировали успехи в ограниченных, изолированных средах, но оказывались...
Ответы
0
Просмотры
Назад
Сверху Снизу