
До скольки килогерц вы слышите?
#21
OFFLINE
Отправлено 25 August 2025 - 16:57
вот - турнепс пачисать:
...Почему-то исторически принято рассуждать о слухе в частотных терминах. Например, непреложная истина, что диапазон слышимости 20Гц — 20кГц.
Я даже догадываюсь, почему так произошло.
Когда-то давным давно применение частотного подхода позволило весело и просто, а главное, КРАСИВО решить энное кол-во вопросов. Ну и с тех пор стали их применять частотные методы ко всему, чему ни попадя с той или иной долей успеха. Ну и плевать, что больше с "другой". Метод-то КАКОЙ!
Вообще, в науке принято пробовать решать задачи разными методами. Особенно, если привычные не работают. Но только не в психоакустике. В психоакустике дозволено рассуждать только в частотных терминах, иначе рискуешь быть запшыканным.
А терминология, надо сказать, доминирующая вещь. Речь определяет сознание. Мы думаем словами (терминами). Например, немецкий язык очень чёткий. В англо-сакских, наоборот сильно расплывчатые понятия. О русском судить не берусь. "Изнутри" плохо "видно". Лицом к лицу лица не увидать!
Итак, первый термин: синусоидальность мышления — это когда человек не может рассуждать о психоакустике ни в каких терминах, кроме частотных.
Ну, потому, что так повелось. Потому что все так рассуждают. Потому, что "буквари" так написаны, … . Иногда — потому что именно так воспринимает аудиоинформацию.
Хотя терминология периодически противоречит сама себе.
Например, термин "окрас" обычно ассоциируется со словом "тембральный", а "тембр" — это явно частотный термин.
А "окрас" ни к изменению гармоникального наполнения, ни тем более, к изменению АЧХ, не приводит. Но попробуй это кому-нибудь доказать. Просто стена непонимания. А почему? А потому что это — "тембральный окрас", а "тембр" — это тональное наполнение. … . И это — ВСЕ аргументы.
А еще и в "букварях" так написано. А их же умные дядьки писАли!
Т.е. с общепринятым бороться очень тяжело. Если не бесполезно.
Но я попробую.
Итак, осмелюсь утверждать, что наши уши вообще не слышат в терминах частот.
Ну нет в наших ушах ничего, что могло бы как-то выделять частоты. Частоты выделяются резонаторами. Коими являются, например, струны. Ну нет в ушах струн. Не. Ну, может, у кого-то и есть. Я же не знаю. Я не в курсе. Но обычно нету.
Или резонаторы Гельмгольца. Тоже не видел оных в строении слухового аппарата человека.
Ухо целиком, конечно, можно рассматривать, как ЧВР … . Но это скорее рупор.
Что ещё? Барабанная перепонка может быть резонатором. Ок. Интересно было бы почитать о резонансных свойствах барабанных перепонок. Но всё равно, резонансы ВЕСЬМА селективны, а слышим мы аж 10 октав!
Какие еще резонаторы бывают в природе?
Кстати, этого нельзя утверждать о голосе. Вот голос у нас построен на резонаторах. Они там есть. И даже в комбинации и не одного вида.
Вернёмся к ушам.
Смею утверждать, что синусоиды (частоты) — вообще не порождение нашего Мира. Почему? Потому, что они БЕСКОНЕЧНЫ, то есть ВЕЧНЫ. В нашем же Мире всё, как в песне: "есть только миг, ослепительный миг".
Чтобы понять, что синусоида — это синусоида, а не часть какой-то другой кривой, надо хранить историю, т.е. знать, как сигнал шёл в прошлом, а еще желательно знать, как пойдёт в будущем. В природе не много таких конструкций. Вот что касается звукоизвлечения — там, да, сплошные резонаторы. Ну, хотя бы потому, что они эффективны. А в ушах — нет. Уши живут моментом.
Осмелюсь утверждать, что уши воспринимают только моментный (почти) сигнал. А конкретнее — моментальное звуковое давление. Звуковое отличается от обычного (давления) тем, что звуковое давление — это первая производная по времени (скорость изменения) обычного давления. Т.е. ухо воспринимает изменения давления. Основной характеристикой изменения, является СКОРОСТЬ НАРАСТАНИЯ. Вот именно по данному параметру и строится в голове "звуковая картина".
Опять вернемся к слуху. Почему-то принято рассуждать о слухе так же, как мы рассуждаем о микрофоне. Кстати, в микрофоне есть резонатор. Даже два:
1 — мембрана
2 — Резонатор Гельмгольца из микрофонной камеры, мембраны и крышки.
Но наш слух — не микрофон! Микрофон — объективен! А наш слух нам бессовестно и беспардонно врёт! Т.е. доносит до нашего сознания информацию далеко не в первозданном виде. Какая-то информация убирается (фильтруется), какая-то анализируется, и доносится уже в виде "образов", информации о позиции источника звука, … . Вот насчет добавляет — тут не могу утверждать. Хотя у меломанов и добавляет, и весьма эффективно :-).
Наш мозг вообще не работает с "сигналами". Работает только с "образами".
Данные утверждение может показаться … кандидатской на дурку?
Ну ведь как это так это? Рассказывать мне, что я слышу не то, что слышу? Еще будешь рассказывать, что вижу не то, что вижу!
Блин … у меня для вас плохие новости. Изображения, обманывающие зрение, думаю, видели все).
В том, что наши уши доносят до сознания совершенно не то, что слышат сами, убедиться достаточно просто. Достаточно выйти на достаточно оживлённую улицу и закрыть одно ухо. Плотно закрыть.
Я это делал в процессе экспериментов по точности позиционирования источников звука.
То, что я услышал с одним закрытым ухом, меня СИЛЬНО УДИВИЛО.
А конкретнее:
— с одним ухом слышишь больше фонового шума. Т.е. когда 2 уха работают, шум фильтруется.
— с одним ухом стали гораздо более слышны далёкие звуки. У нас тут ж/д ст. Сортировка не очень далеко. Ну как не далеко? Километра три-четыре, наверное. Так вот, двумя ушами ее звуки почти не слышны, а одним — такое ощущение, что она в километре, а не трёх. Почему пример с железной дорогой? Потому что звуки характерные и я чётко знаю, откуда они слышны.
— слышимость одним ухом гораздо ближе к тому, что слышит микрофон. Т.е. я начинал слышать, как где-то свистит чайник, где-то громко работает телевизор, … — в общем, КУЧУ разной и не нужной информации, которая с двумя ушами эффективно отсеивается. Это на улице.
У нас эволюция так сработала: более важны те звуки, что происходят в критическом радиусе. А те, чьи скудные вычислительные ресурсы отвлекались на не_нужные звуки, не дожили до наших дней.
В общем, у нас после ушей стоит неотключаемый "ДСП". Напрямую сознание ничего не слышит. Работает только с тем, что ему поставляет центр слуха.
Так вот, если уши у всех +/- одинаковые, то с настройками этого ДСП всё весьма индивидуально.
За что же отвечает этот "ДСП"? Например он "обрезает" частоты, на которых нет полезной информации.
Именно этим объясняется "снижение" слуха у людей в возрасте. ДСП просто "обучается" в течение жизни, что там полезной информации нет, и нефиг ее доносить до сознания. При этом острота слуха не снижается. Более того, ни разу не видел требовательного аудиофила 20 лет от роду. Все аудиофилы (люди, требовательные к звуку) — это от 30 минимум, а основная масса — 40+. Т.е. люди с "физиологически сниженным слухом". НЕТ. Люди с хорошо "обученным" ДСП!
Еще один, считаю, замечательный пример: "обсчёт помещения": мы почти никогда не слышим (точнее, не воспринимаем) отражений, если только это не совсем "запущенный" вариант. А они есть! Они ТОЧНО есть!
Вот микрофон отражения "слышит" замечательно. И этот записанный звук, будучи записан и воспроизведён, наш ДСП уже "обсчитать" не сможет! Хотя … Просто так еще никто не делал. Может быть, при длительной тренировке ДСП … но это надо постоянно ходить в наушниках и с микрофонами на голове.
А может быть, и делал. Думаю, люди, постоянно находящиеся в гулком помещении, со временем учатся обсчитывать и удалять переотражения, и со временем им помещение уже не кажется таким гулким.
Что ещё? В тех же экспериментах по точности позиционирования источников звука, я получил точность порядка нескольких градусов по горизонтали, если двумя ушами. Простое тригонометрическое упражнение:
2 грд — это 0,69см разницы расстояния до удалённого объекта правого и левого уха.
0,69см — это 20 микросекунд разницы между фронтами, пришедшими в правое и левое ухо.
Аналогичные данные в своё время получили японцы. Они доказывали полезность разных неконвенционных ВЧ-динамиков и выясняли, какая полоса сигнала влияет на слуховое восприятие. Оказалось, что примерно до 40кГц. Естественно, никто — не летучая мышь, и не слышит выше 20кГц напрямую, но данные частоты влияют на такие вещи, как "воздух" (т.е. ощущение пространства), "сцену" (опять-таки, позиционирование), … .
Оказывается, наши уши вполне слышат выше 20кгц и оперируют временами порядка десятка микросекунд. Только эта информация не доходит напрямую до сознания, а используется для других целей. В частности, для позиционирования.
Теперь что и как слышат наши уши, и как это доходит до сознания?
Я сильно подозреваю, что у нас в слуховом центре мозга хранится некая база данных по звукам. Причём, в этой базе не собственно звуки, а их характерные признаки, т.е. "образы".
Если играет гитара, мы поймём, что это — звук гитары (если мы, конечно, уже натренировались различать разные звуки и знаем их) вне зависимости от того, настроена гитара, или, какую струну, на каком ладу и в какой комбинации дёрнули, сколько длится звук, … . Т.е. характеристика звука определяется не самим звуком, а каким-то набором его характерных качеств.
Аналогично с другими инструментами: рояль, клавесин, орган, флейта, труба, саксофон, скрипка, виолончель, … .
Аналогично с голосом.
Например, когда вы слышите "Оу", у вас же нет восприятия этого как "вот тут колеблется быстрее, тут медленнее, … " Вы сразу слышите "Оу". Причём, без разницы по частоте (тембру), времени произнесения, … . Т.е. вы сразу слышите "расшифрованное" "Оу".
Что-то в нашем мозгу уже обработало данный сигнал. И снабдило его важными для выживания признаками, например: произносивший — мужчина, эмоция — такая-то, расстояние и азимут такие-то. И заметьте, это всё происходит моментально и вне вашего сознания. Сознанию достаются только результаты.
Или хрустнула ветка.
Шуршит бумага.
Кстати, позиционирование у нас наиболее острое как раз на подобные звуки. Именно они ответственны за безопасность :-).
А вот "синусоиды" мы фактически не позиционируем. Попробуйте ка поймать комара только по слуху :-). Это уже влияло на выживаемость комаров :-). С мухой, как это ни странно, проще. С позиционированием. Но она и летает и реагирует быстрее. Ей не надо чтобы ее не позиционировали по жужжанию. Она и так успеет свалить :-).
Еще один важный момент. Определение расстояния до источника звука (ИЗ).
Если азимут теоретически определяется по разности времени прихода фронтов, то с расстоянием всё ГОРАЗДО сложнее.
Я думаю, что расстояние до ИЗ определяется по размытию этих фронтов. Причем, происходит это по моделям звуков, хранящихся в слуховом центре.
Простой и доступный пример: чем ближе бьёт молния — тем звук более резкий и "собранный". Далёкие удары же превращаются в некое гудение. И не надо рассказывать, что это просто высокие частоты поглощаются, а низкие доходят. Нет. Как-то молния ударила, может, в сотне метров от меня, может, в нескольких десятках. Так я чуть свой язык не съел и через себя не перепрыгнул. И ничего там несколько секунд не грохотало, как при далёких разрядах. Весь удар уложился в ДОЛИ СЕКУНДЫ.
Мы можем определить, что что-то звучит на таком-то расстоянии, из другой комнаты, через стекло (окно), "накрытое простынёй/покрывалом/одеялом/матрасом", … . Т.е. вот эту всю окружающую обстановку "просчитывает" наш слуховой ДСП. Т.е. есть не только модели собственно звуков, но и модели воздействия на них тех или иных условий.
Если такой обсчёт провернуть на компьютере, думаю, потребуется хороший такой супер-компьютер.
Давайте теперь о "натуральности звучания".
Смею утверждать, что такого понятия вообще не существует. Даже натуральные звуки — они все объективно разные. Очень много чем отличаются.
Натуральность звуков при воспроизведении, нашим "ДСП" воспринимается как соответствие некоторой матрице некоторых критериев. Если звуки определяются и распознаются легко, они воспринимаются как более натуральные. Если ДСП приходится "думать", а что же такое с этими звуками произошло, что их так исказило, то такие звуки не воспринимаются как натуральные.
СТЕРЕО — это некий фокус. Обман ушей. Создание объёмной звуковой картины посредством всего двух источников звука. Так вот, если звук воспроизводится без искажений (если что, я не имею ввиду общепринятое в аудио понятие искажений, измеренных спектральными методами, а имею ввиду более общее понятие, т.е. изменение отн. исходника). Так вот, если звук воспроизводится без искажений, и когерентно, то он воспринимается нашим ДСП как "ага. Этот звук мы знаем: это вот то-то и звучит оттуда-то", а если звук искажён и некогерентен, то он воспринимается как "вон в тех ящиках что-то шумит: в том и в том".©
стырино у бариса
https://www.drive2.r...52420840886919/
#22
OFFLINE
Отправлено 25 August 2025 - 20:20
Ну нет в наших ушах ничего, что могло бы как-то выделять частоты. Частоты выделяются резонаторами. Коими являются, например, струны. Ну нет в ушах струн. Не. Ну, может, у кого-то и есть. Я же не знаю. Я не в курсе. Но обычно нету.
Люди с абсолютным слухом легко определяют ноту такой-то октавы, и даже завышена нота или занижена. А ноты - это диапазон частот, достаточно узкий диапазон. Дальше ваши размышления не читал, уж извините)

(заполни пропущенные символы в меру своей испорченности)
#23
OFFLINE
Отправлено 25 August 2025 - 20:42
просто ухи надо с молоду оберегать
Воткнуть пылающий факел знаний в задницу невежества - наша задача.
#24
OFFLINE
Отправлено Сегодня, 02:16
чё претихли? ))
вот - турнепс пачисать:
стырино у бариса
https://www.drive2.r...52420840886919/
Это прям на докторскую диссертацию тянет. Сильно!!! Единственное с "позиционированием на частотах свыше 20 кгц" не совсем понятно и с "натуральными звуками, которые объективно разные". В частности не совсем понятно, точнее совсем не понятно, каким образом частоты свыше 20 кгц влияют на позиционирование объектов звука и как могут быть натуральные звуки объективно разные?
В случае если источник сигнала даёт хороший бас, провода его не подрезают, АКБ и силовые хороши, а салон не перебивает всё свои дребезжанием - то у нас есть шанс.(с)
#25
OFFLINE
Отправлено Сегодня, 07:08
2 грд — это 0,69см разницы расстояния до удалённого объекта правого и левого уха.
0,69см — это 20 микросекунд разницы между фронтами, пришедшими в правое и левое ухо...©
[url="%5Burl="https://www.unitjuggler.com/%D0%BF%D0%B5%D1%80%D0%B5%D0%B2%D0%BE%D0%B4-frequency-%D0%B8%D0%B7-%C2%B5s(p"]https://www.unitjuggler.com/%D0%BF%D0%B5%D1%80%D0%B5%D0%B2%D0%BE%D0%B4-frequency-%D0%B8%D0%B7-%C2%B5s(p"[/url][/url]https://www.unitjugg...-Hz.html?val=20
50 kHz )))
пысы )
аб дрисировке межушново dsp:
…Before arguing about whether it’s time to scrap the old definition and revise upwards the “audio band” of human hearing, let’s look at the frequencies that are output from the instrumental groups found in a traditional symphony orchestra. I was referred to a research project conducted at CalTech about 15 years ago. The resulting paper is titled:
There’s Life Above 20 Kilohertz!
A Survey of Musical Instrument Spectra to 102.4 KHz
James Boyk
California Institute of Technology
You can check out the paper by clicking here.
Here’s the abstract:
“At least one member of each instrument family (strings, woodwinds, brass and percussion) produces energy to 40 kHz or above, and the spectra of some instruments reach this work’s measurement limit of 102.4 kHz. Harmonics of muted trumpet extend to 80 kHz; violin and oboe, to above 40 kHz; and a cymbal crash was still strong at 100 kHz. In these particular examples, the proportion of energy above 20 kHz is, for the muted trumpet, 2 percent; violin, 0.04 percent; oboe, 0.01 percent; and cymbals, 40 percent. Instruments surveyed are trumpet with Harmon (“wah-wah”) and straight mutes; French horn muted, unmuted and bell up; violin sul ponticello and double-stopped; oboe; claves; triangle; a drum rimshot; crash cymbals; piano; jangling keys; and sibilant speech. A discussion of the significance of these results describes others’ work on perception of air- and bone-conducted ultrasound; and points out that even if ultrasound be [is] taken as having no effect on perception of live sound, yet its presence may still pose a problem to the audio equipment designer and recording engineer.”
I applaud the author on establishing that musical partials extend to well above the accepted upper limit of human hearing. It’s clear that we’re exposed to a lot of ultrasonic frequencies during a live performance of a symphony orchestra. Of course, the distances involved in this test are not like being in Carnegie Hall but it reveals something that I’ve known for a long time. Music doesn’t stop at 20 kHz…so why should our recording and reproduction systems?©
https://www.realhd-audio.com/?p=2465
Сообщение отредактировал: serg.gio - Сегодня, 07:34
Количество пользователей, читающих эту тему: 1
0 пользователей, 1 гостей, 0 анонимных