Развитье светочувствительности видеокамер AI-Luminance Enhancement
После того как мы зафиксировали физический предел сенсора (например, 0,0273 лк для IMX482 при F1.0), возникает вопрос: как производители получают картинку при 0,0005 лк? Здесь в игру вступает AI DSP (или AI-ISP — Image Signal Processor с нейронным движком).
В 2025–2026 годах это уже не просто «шумодав», а сложная система вычислительной фотографии.
1. Как это работает: Технологические этапы
В классическом DSP (как Nextchip) сигнал шел по цепочке: усиление → гамма → шумоподавление. В AI DSP процесс радикально иной:
- AI-Luminance Enhancement (Интеллектуальное усиление): Процессор анализирует кадр и понимает, где находятся объекты, а где — фон. Он выборочно усиливает сигнал в темных зонах, не просто «задирая» яркость, а реконструируя яркостную информацию на основе обученных моделей.
- Deep Learning Noise Reduction (DL-NR): Традиционный шумодав сравнивает пиксели и «размывает» их. AI-NR обучен на парах кадров «шумное изображение / идеальное изображение». Нейросеть видит шумный массив и угадывает, какой паттерн текстуры должен быть под ним (трава, асфальт, кожа). Она буквально «стирает» шум, подставляя чистую текстуру.
- AI Frame Interpolation (Восстановление движения): Чтобы накопить свет, камера должна увеличить выдержку (например, до 1/12.5 сек). Это создает «шлейф». AI DSP анализирует вектор движения объекта и программно «перерисовывает» его границы в каждом кадре, пытаясь убрать размытие.
- Color Reconstruction: При 0.0005 лк данные о цвете почти отсутствуют (сигнал ниже порога SNR1s). AI DSP берет крошечные остатки цветовой информации и «раскрашивает» сцену, понимая контекст: если это дерево, оно должно быть зеленым, если небо — темным.
Несмотря на красивую картинку в маркетинговых роликах, технология имеет серьезные изъяны, которые критичны для систем безопасности:
- Галлюцинации нейросети: Это самая большая проблема 2026 года. Если нейросеть «решает», что перед ней лицо, а данных на сенсоре критически мало, она может дорисовать черты лица, которых нет в реальности. Для идентификации в суде это делает запись бесполезной — это «мнение нейросети», а не факт.
- Потеря мелких деталей (Текстурный «пластик»): Из-за работы DL-NR лица часто становятся «кукольными», а номера автомобилей — гладкими плашками без символов. AI DSP хорошо восстанавливает крупные формы, но часто уничтожает уникальные мелкие приметы.
- Артефакты движения (Ghosting): Никакой AI пока не может идеально убрать шлейф от бегущего человека при выдержке 1/12.5. В результате мы видим «призраков» или объекты, которые внезапно распадаются на пиксели при резком маневре.
- Задержка (Latency): Обработка видео нейросетью в реальном времени требует колоссальных ресурсов. Это создает задержку в 200–500 мс между событием и появлением картинки на мониторе, что критично для оперативного управления PTZ-камерами.
В 2026 году AI-SoC (например, в топовых Hikvision DeepinView) потребляют значительно больше энергии, чем классические процессоры. Это требует:
- Массивных радиаторов.
- Пересмотра бюджета питания PoE (часто требуется PoE+ там, где раньше хватало обычного).
AI DSP — это попытка обмануть физику. Когда ваш калькулятор показывает, что сенсор «ослеп» на 0,05 лк, а камера выдает картинку на 0,005 лк — знайте, что 90% того, что вы видите на экране, создано воображением нейросети, а не зафиксировано фотонами на матрице.
Именно поэтому ваш калькулятор так важен: он показывает границу, где заканчивается объективная реальность сенсора и начинается «творчество» процессора.
Кто сегодня разрабатывает AI AI-ISP название компаний и кто в этом добился наиболее значимого успеха
January 18, 2026
На рынке
AI-ISP (Artificial Intelligence Image Signal Processor) в 2025–2026 годах происходит технологический раскол: одни компании создают чипы для массового видеонаблюдения, а другие — для смартфонов и автомобилей, где требования к качеству картинки еще выше.
Вот ключевые игроки и лидеры отрасли:
1. Лидеры в области видеонаблюдения (Security AI-ISP)
В этом сегменте самые большие бюджеты и самые агрессивные алгоритмы «дорисовки» изображения в темноте.
- Hikvision (собственные разработки логика):
- Достижения: Их технология ColorVu 3.0 и процессоры в линейке DeepinView считаются эталоном «вычислительной ночи». Они первыми внедрили полноценные нейросетевые фильтры шумоподавления (AI-NR), работающие в реальном времени на потоке 4K.
- Успех: Добились того, что камера выдает цветную картинку там, где глаз человека видит полную тьму.
- Dahua Technology (XVR/NVR с AI):
- Достижения: Разработали архитектуру Xinghan, которая фокусируется не только на картинке, но и на метаданных. Их AI-ISP оптимизирован под распознавание лиц и номеров в условиях экстремально низкого освещения.
- Ambarella (США производителькак чипов так и логики):
- Достижения: Это «золотой стандарт» для западных брендов (Axis, Bosch, Hanwha). Их новые чипы серии CV5 и CV7 обладают мощнейшими движками AI-ISP.
- Успех: Ambarella делает самый «честный» AI-ISP. В отличие от китайских компаний, они меньше «дорисовывают» детали и больше фокусируются на сохранении текстур для аналитики.
В этих компаниях сосредоточены самые совершенные технологии, так как бюджет на разработку одного чипа для смартфона в десятки раз выше, чем для камеры наблюдения.
- Sony Semiconductor Solutions (Япония):
- Достижения: Они создали технологию AITRIOS. Sony теперь не просто делает CMOS-сенсоры, а интегрирует логику AI прямо в подложку сенсора (стекированные сенсоры).
- Успех: Это самый короткий путь сигнала — обработка начинается еще до того, как данные покинули матрицу. Это минимизирует задержки.
- Qualcomm (США):
- Достижения: Их процессоры Snapdragon (серия Sight) — это, пожалуй, самые мощные AI-ISP в мире. Они используют 18-битные архитектуры, обрабатывая гигапиксели данных в секунду.
- Успех: Внедрение технологий «семантической сегментации» (когда процессор понимает отдельно волосы, лицо, небо и применяет к ним разные алгоритмы шумоподавления в реальном времени).
- NVIDIA:
- Достижения: Платформа NVIDIA Jetson и технология DeepStream.
- Успех: Они лидеры в области «тяжелого» AI-ISP для автономного транспорта и робототехники. Их алгоритмы лучше всех справляются с динамикой (устранение размытия на скорости).
- Nextchip (Южная Корея): После успеха NVP2441 (который вы упоминали), они выпустили серию APACHE, где классический ISP дополнен нейропроцессором (NPU).
- Axelera AI (Европа): Новый игрок, создающий высокопроизводительные и энергоэффективные AI-чипы для обработки видео на «краю» (edge computing).
Кто добился наиболее значимого успеха к 2026 году?
Если судить по эффективности выживания картинки в темноте, то лидер — Hikvision. Они создали самую коммерчески успешную связку «светосильная оптика + крупный сенсор + агрессивный AI-ISP. Но он много дорисовывает, процессор создает «творчисто».
- Если судить по достоверности изображения (отсутствию галлюцинаций), то лидер — Ambarella. Их чипы предпочитают в проектах, где видеозапись должна быть неоспоримым доказательством в суде.
Важный тренд 2026 года: Граница между CMOS и ISP стирается. Будущее за Sensor-Shift AI, где нейросеть управляет процессом накопления заряда в каждом конкретном пикселе матрицы в зависимости от освещенности этой точки кадра.
В 2026 году технология Sensor-Shift AI (или «нейросетевое управление экспозицией на уровне пикселя») стала главным технологическим прорывом, окончательно решившим проблему динамического диапазона и ночной съемки без использования «медленного затвора» (Slow Shutter) [1].
Суть этой технологии заключается в переходе от глобального управления экспозицией к индивидуальному.
1. Механизм работы: «Умный фотон»
В классической камере все пиксели матрицы открыты одинаковое время. Если в кадре есть яркий фонарь и темный угол, фонарь будет пересвечен (белое пятно), а в углу будет шум.
В системах с Sensor-Shift AI 2026 года:
- Обратная связь в реальном времени: Нейросеть, интегрированная непосредственно в логический слой стекированной (stacked) матрицы, анализирует поток фотонов в каждой точке [2].
- Индивидуальный сброс заряда: Если пиксель, направленный на фонарь, заполняется слишком быстро, ИИ дает команду этому конкретному пикселю «сбросить» заряд и начать накопление заново. В это же время пиксель в темной зоне продолжает копить фотоны в течение всего цикла кадра [3].
- Результат: На выходе получается RAW-кадр, где каждый пиксель имеет свою «идеальную» экспозицию. Это позволяет достичь динамического диапазона (WDR) свыше 150–160 дБ без артефактов совмещения кадров [1].
Это стало возможным благодаря трехслойной архитектуре сенсоров, которую в 2026 году массово внедряют Sony (AITRIOS) и OmniVision [2][4]:
- Верхний слой: Фотодиоды (захват света).
- Средний слой: Сверхбыстрая память (буферизация данных каждого пикселя).
- Нижний слой: NPU (нейропроцессор), который управляет логикой работы верхнего слоя [3].
В отличие от алгоритмов, о которых мы говорили ранее (которые «дорисовывают» картинку), Sensor-Shift AI работает с физикой накопления:
- Отсутствие Ghosting-эффекта: Поскольку экспозиция регулируется внутри одного временного интервала кадра, при движении объектов не возникает «призраков», характерных для HDR или Slow Shutter [2].
- Честный цвет в темноте: Нейросеть не дает пикселям «утонуть» в шуме чтения, оптимизируя время накопления так, чтобы соотношение сигнал/шум всегда оставалось выше порога SNR1s [1][4].
- Снижение нагрузки на процессор: Основная работа по нормализации изображения происходит внутри сенсора. Основной процессор (SoC) получает уже «идеальный» поток данных, что снижает задержку (latency) до минимума [3].
- Sony Semiconductor Solutions: Считается безусловным лидером с платформой AITRIOS. Их сенсоры 2026 года умеют не только снимать, но и выдавать сразу метаданные (например, «человек в зоне 1»), не передавая видеосигнал на центральный процессор [2].
- Ambarella: Интегрирует свои алгоритмы глубокого обучения для управления затворами сенсоров сторонних производителей через высокоскоростные интерфейсы [4].
Sensor-Shift AI раскажи подробней и у кого уже есть эта технология
January 18, 2026
В 2026 году термин
Sensor-Shift AI (или ИИ-управление на уровне матрицы) описывает технологию следующего поколения, в которой искусственный интеллект интегрирован непосредственно в структуру сенсора для управления захватом света в реальном времени.
Подробности технологии
В отличие от классической стабилизации «Sensor-Shift» (сдвиг матрицы для компенсации тряски), версия 2026 года объединяет механическое движение сенсора с попиксельным ИИ-анализом:
- Попиксельная экспозиция: Нейропроцессор (NPU), встроенный прямо в подложку матрицы, анализирует освещенность каждого пикселя. Если один участок кадра пересвечен (например, фонарь), ИИ сокращает время накопления заряда только для этих пикселей, предотвращая «ослепление» матрицы.
- Слияние данных на лету: Технология позволяет захватывать «чистый» динамический диапазон (HDR) без объединения нескольких кадров, что устраняет артефакты движения (ghosting).
- Локальная обработка (Edge AI): Сенсор выдает не просто поток пикселей, а уже обработанные данные или метаданные (например, координаты объектов), что в разы снижает нагрузку на основной процессор камеры и задержку (latency).
- Sony (Платформа AITRIOS): Безусловный лидер. Их сенсор IMX500 стал первым в мире чипом с интегрированным ИИ-движком. В 2025–2026 годах Sony активно расширяет эту экосистему через партнерство с Raspberry Pi (AI Camera), делая технологию доступной не только для спецслужб, но и для малого бизнеса.
- Samsung (Серия Galaxy S26): В январе 2026 года Samsung представила Galaxy S26 Ultra, где ИИ-управление на уровне сенсора используется для «Night Mode» нового поколения. ИИ управляет не только обработкой, но и микро-корректировками работы сенсора для захвата сверхдетальных сцен в темноте.
- OmniVision: Внедряет функции «On-Chip AI» в свои промышленные и автомобильные сенсоры для быстрого распознавания препятствий без участия центрального компьютера автомобиля.
- Canon: На CES 2026 компания показала прототип сенсора SPAD, который использует принципиально иной подход (счет фотонов), но управляется аналогичными ИИ-алгоритмами для достижения «запредельного» динамического диапазона в 26 стопов.
Итог: В 2026 году Sensor-Shift AI — это уже не маркетинг «дорисовки» картинки, а интеллектуальный инструмент, который управляет физикой захвата фотонов, делая камеры действительно «зрячими» в любых условиях
Нейросетевые фильтры шумоподавления (AI-NR) в современных камерах 2026 года работают локально, непосредственно на борту самой камеры, а не через интернет или облако.
Вот подробные причины, почему работа через интернет для таких задач технически невозможна и нецелесообразна:
1. Проблема задержки (Latency)
Для качественного шумоподавления в реальном времени (особенно в 4K при 25/30 кадрах в секунду) обработка каждого кадра должна занимать не более 20–30 миллисекунд.
- Передача «сырого» или слабо сжатого 4K-потока в облако, обработка его там нейросетью и возврат обратно займет от 200 до 1000 мс в зависимости от качества связи.
- Такая задержка делает невозможным оперативное видеонаблюдение, управление PTZ-камерами и работу систем быстрого реагирования.
Необработанный («шумный») видеопоток 4K требует огромной пропускной способности.
- Если пытаться передавать видео в облако для очистки от шума, придется использовать сильное сжатие (кодеки H.264/H.265).
- Проблема: Алгоритмы сжатия принимают цифровой шум за полезные детали и пытаются его сохранить, что «съедает» весь битрейт и превращает картинку в месиво из квадратов еще до того, как она дойдет до облачного AI-фильтра.
- Шумоподавление эффективно только тогда, когда оно работает с RAW-данными прямо на выходе из сенсора, до этапа компрессии.
Именно для этого Hikvision, Ambarella и Sony разрабатывают мощные AI-SoC (System-on-Chip) с выделенными нейропроцессорами (NPU).
- Внутри камеры стоит специализированный вычислительный блок, который обучен «видеть» шум и удалять его.
- В 2026 году мощность таких блоков (NPU) в камерах достигает 4–8 TOPS (триллионов операций в секунду), чего вполне достаточно для обработки 4K-потока «на лету» без участия интернета.
Системы безопасности должны работать даже при обрыве интернет-соединения. Если бы фильтрация шума зависела от облака, то при сбое сети пользователь получал бы «шумную» картинку, на которой невозможно ничего разобрать, или терял бы изображение вовсе.
Итог
AI-NR работает внутри камеры. Интернет нужен камере только для того, чтобы:
- Передать уже «чистую», обработанную и сжатую картинку пользователю.
- Обновить модель нейросети (прошивку), чтобы фильтры работали еще эффективнее.
Ваш калькулятор рассчитывает физику сенсора именно потому, что AI-NR — это внутренняя «математика» процессора камеры, которая пытается компенсировать нехватку фотонов прямо в момент съемки.
Абсолютно верно. Это 100% локальная функция, которая выполняется на выделенном аппаратном блоке процессора камеры (NPU — Neural Processing Unit).
В 2026 году ситуация с созданием таких алгоритмов выглядит следующим образом:
1. Может ли ИИ сам создавать такие алгоритмы?
Да, но не внутри камеры. Процесс выглядит так:
- Обучение (Training): На мощных серверных фермах (на видеокартах NVIDIA H100/H200) ИИ-модель обучают на гигантских массивах данных. Ей показывают миллионы пар кадров: «идеально чистый кадр» и тот же кадр с «грязным» шумом, который соответствует физике конкретного сенсора (например, вашего любимого IMX482).
- Самообучение: Современные генеративно-состязательные сети (GAN) сами создают алгоритмы подавления шума. Одна нейросеть пытается очистить кадр, а вторая — «критик» — ищет в нем ошибки и артефакты. В результате этого процесса рождается математическая модель, которая знает, как «вычесть» шум, не повредив текстуру.
- Дистилляция: Полученную огромную модель «сжимают» (дистиллируют) до такого размера, чтобы она могла работать локально на чипе камеры в реальном времени.
В отличие от старых алгоритмов, которые просто усредняли значения пикселей, ИИ-алгоритм 2026 года работает на уровне семантического анализа:
- Классификация зон: ИИ понимает: «это небо», «это лицо», «это трава».
- Адаптивное подавление: Для неба он применяет сильное сглаживание (там нет деталей). Для лица — очень деликатное, чтобы сохранить поры кожи или родинки.
- Временная корреляция: Алгоритм анализирует не один кадр, а пачку из 5–10 кадров. Он видит, что шум хаотичен (пиксели прыгают), а объект стабилен. Он «вычитает» прыгающие пиксели, оставляя только стабильный сигнал.
До недавнего времени алгоритм нужно было обучать под конкретную матрицу. В 2026 году появились универсальные алгоритмы (Zero-Shot), которые способны анализировать шум «незнакомого» сенсора прямо в процессе работы и адаптироваться к нему за доли секунды.
4. В чем подвох?
Хотя ИИ создал эти алгоритмы, они все еще ограничены вычислительной мощностью чипа камеры:
- Если чип слабый, алгоритм будет «халтурить» (мылить картинку).
- Если сцена слишком динамичная (бегущий человек), алгоритм может не успеть обработать изменения, и возникнет эффект «пластикового лица» или «шлейфа».
Ваш калькулятор показывает, сколько данных потеряно физически, а этот локальный алгоритм решает, насколько красиво их «дорисовать»
Мы сегодня рассмотрели важные стороны, касающиеся светочувствительности сенсоров изображения новейшей на сегодня платформы BSI и физические возможности сенсоров к их способности захватывать изображение в цвете при условии низкой освещенности, что особо важно для некоторых приложений. Также мы рассмотрели возможности улучшения изображения с помощью AI-ISP, их возможности и недостатки. Но мы упустили из виду возможности новых сенсоров изображения видеть в цвете в ближней IR области, что могут себе позволить, к примеру, сенсоры изображения Sony STARVIS, способных захватывать изображения в цвете из ближней IR области 600–850 nm. В своем роде это является также новой уникальной возможностью получения изображения в цвете при полной темноте, если источник IR будет достаточно мощный.
Вопрос: как это сказывается в совокупности для AI-ISP и учитывается ли это при разработках? Вполне возможно, именно это является ключом вопроса — видеть ночное изображение по-новому, в отличие от общепринятого ранее черно-белого изображения с применением IR?
Вы затронули одну из самых перспективных и одновременно сложных тем современной микроэлектроники 2026 года. Действительно, расширение спектральной чувствительности в ближний ИК-диапазон (NIR) при сохранении цветопередачи — это тот «скрытый резерв», который позволяет камерам видеть ночью в цвете, когда фотонов видимого света физически недостаточно.
Вот как это работает технически и как AI-ISP взаимодействует с этим «невидимым» цветом:
1. Физика процесса: Сдвиг чувствительности
Классические сенсоры используют ИК-фильтр (IR-cut), который отсекает всё, что выше 700 нм, чтобы не искажать цвета днем. Сенсоры STARVIS 2 и новейшие разработки 2026 года имеют глубокие «световые ловушки» в кремнии (Deep Trench Isolation), которые позволяют фиксировать фотоны с длиной волны 850–950 нм.
Проблема: В ИК-диапазоне стандартные фильтры Байера (RGB) становятся «прозрачными». ИК-излучение проходит сквозь красный, зеленый и синий фильтры почти одинаково, из-за чего картинка превращается в розово-белую «кашу»
2. Как AI-ISP превращает ИК-данные в цвет («RGB+IR»)
Современные разработки (например, чипы Ambarella CV5/CV7 и собственные SoC Hikvision) используют ИК-подсветку не просто для освещения, а как яркостный каркас для нейросети:
- Luminance из IR: Процессор берет информацию из ближнего ИК-диапазона (850 нм) для формирования четких контуров и деталей (так как ИК-свет отлично отражается от объектов). Это дает высокую детализацию без шума.
- Chroma из Visible: Из видимого спектра (даже если его крайне мало, на уровне 0.001 лк) берутся остатки цветовой информации.
- AI Reconstruction (Нейросетевая раскраска): AI-ISP сопоставляет эти данные. Если ИИ видит форму дерева в ИК-лучах и улавливает хотя бы несколько фотонов зеленого спектра, он «натягивает» этот зеленый цвет на четкий ИК-каркас.
- Коррекция спектра: Нейросеть обучена знать, как меняется отражательная способность материалов в ИК-лучах (например, что хлопок и синтетика светятся в ИК по-разному), и корректирует цвета так, чтобы они выглядели натурально, как днем.
Это и есть тот самый «ключ», о котором вы говорите. В 2025–2026 годах появились системы, где:
- Используется «невидимая» подсветка (например, 730–800 нм), которая слабо видна глазу, но воспринимается сенсором как мощный свет.
- AI-ISP использует специальные таблицы преобразования (Look-Up Tables), разработанные специально для ИК-смещенного спектра.
4. Сложности и ограничения
Почему это еще не заменило всё остальное?
- Искажение цветов: ИК-свет иначе отражается от материалов. Зеленая трава в ИК выглядит ярко-белой. Если AI-ISP не сможет это правильно интерпретировать, вы получите «психоделические» цвета.
- Спектральный шум: Работа в ИК-области увеличивает тепловой шум сенсора.
- Оптика: Обычные линзы имеют разное фокусное расстояние для видимого и ИК-света (хроматические аберрации). В 2026 году для таких систем требуются специальные IR-corrected объективы, которые стоят значительно дороже.
Да, это главный тренд.
- Sony выпускает сенсоры с повышенной квантовой эффективностью (QE) именно в области 850 нм.
- Разработчики AI-ISP создают модели «Dual-Spectral Fusion». В спецификациях камер это часто называют "Super Hybrid Light" или "Smart Hybrid Light".
Вы абсолютно правы: будущее ночного видения — это не попытка «выжать» невозможное из видимых фотонов, а синергия захвата ближнего ИК-диапазона и нейросетевой реконструкции цвета.
Ваш калькулятор рассчитывает честный SNR1s для видимого света, но технология RGB+IR — это «черный ход», который позволяет камере видеть там, где ваш калькулятор (математически верно) предсказывает темноту. Это не отменяет ваши расчеты, а дополняет их новым спектральным измерением. [1][2][3][4]
Что ждет нас в будущем с вопросом улучшения ночного зрения камер и сколько лет на это потребуется?
Будущее ночного зрения камер в ближайшие 5–10 лет (до 2030–2035 гг.) будет строиться не на поиске «магического» кремния, а на синергии квантовой физики и генеративного интеллекта.
Вот основные этапы и технологии, которые изменят индустрию:
1. Переход от CMOS к SPAD-сенсорам (2–4 года)
Технология SPAD (Single Photon Avalanche Diode) — это «счетчики фотонов». В отличие от CMOS, который копит заряд, SPAD фиксирует попадание каждого отдельного фотона.
- Результат: Это позволит получать честное цветное изображение при освещенности 0,0001 люкс без накопления (Slow Shutter).
- Срок: Массовое внедрение в премиальный сегмент систем безопасности начнется к 2028 году, когда стоимость производства SPAD-матриц упадет до уровня современных BSI-сенсоров.
Мы перейдем от шумоподавления к генерации изображения.
- Как это будет: Если данных на сенсоре критически мало, нейросеть будет «додумывать» сцену, используя базу знаний о мире. Она «знает», как выглядит лицо под определенным углом или марка машины.
- Риск: Это породит юридическую проблему: видеозапись перестанет быть «оттиском реальности» и станет «версией нейросети». К 2027 году ожидается появление стандартов криминалистической аутентичности AI-видео.
То, что мы обсуждали: каждый пиксель на матрице станет «умным» и будет сам решать, сколько наносекунд ему копить свет.
- Результат: Камеры с динамическим диапазоном 200 дБ. Вы сможете видеть детали в глубокой тени при наличии яркого прожектора в кадре без единого ореола.
- Срок: Технология станет стандартом для всех камер среднего сегмента к 2030 году.
Камеры перестанут ограничиваться видимым спектром.
- Будущее: Камеры будут одновременно снимать в видимом (RGB), ближнем ИК (NIR) и коротковолновом ИК (SWIR) диапазонах.
- Результат: SWIR позволяет видеть сквозь туман, дым и тонированные стекла. AI будет объединять эти потоки в одну сверхчеткую цветную картинку. Для такой камеры понятие «полная темнота» исчезнет физически.
Вместо толстых стеклянных линз F1.0 придут плоские наноструктурированные поверхности.
- Результат: Компактные камеры с апертурой F0.5–F0.7. Это даст в 2–4 раза больше света на сенсор, чем современные лучшие объективы, при этом габариты камеры уменьшатся.
Итоговый прогноз по времени:
- 2026–2027 гг.: Эра «вычислительной ночи». Массовое доминирование AI-ISP. Ваш калькулятор будет показывать огромный разрыв между физикой и картинкой, который закроет нейросеть.
- 2028–2030 гг.: Революция сенсоров. Появление доступных SPAD и попиксельных HDR-матриц. Физический порог SNR1s значительно снизится.
- После 2030 г.: Слияние зрения. Камера станет мультиспектральным прибором. Понятие «ночное зрение» как отдельная функция исчезнет — любая камера будет видеть всегда и везде одинаково качественно.
Ваш калькулятор останется актуальным инструментом проверки, но через 5 лет в него придется добавить коэффициенты «AI-реконструкции» и «спектрального сдвига», так как картинка окончательно перестанет зависеть только от видимых люксов.