소개: CMOS의 지배가 끝나는 것은 오지 않았습니다—이미 도래했습니다
자율주행차가 저조도에서 보행자를 놓치거나 현미경이 실시간으로 신경 스파이크를 추적하지 못할 때, 원인은 단순한 하드웨어 한계가 아닙니다—30년 된 이미징 패러다임입니다. 전통적인 CMOS 모듈, 오늘날 모든 디지털 카메라의 중추인 , "충분히 좋은" 것이 고정 간격으로 프레임을 캡처하는 것을 의미했던 세계를 위해 설계되었습니다. 그러나 산업이 더 빠르고, 더 스마트하며, 더 효율적인 비전 시스템을 요구함에 따라 CMOS의 구조적 병목 현상은 극복할 수 없는 문제가 되었습니다. 신경 카메라가 등장했습니다: 단순히 빛을 기록하는 것이 아니라 그것을 해석하는 생체 영감을 받은 센서입니다. 이것은 점진적인 업그레이드가 아니라 우리가 시각 데이터를 캡처하는 방식을 완전히 재구상하는 것입니다. 2030년까지 전문가들은 신경 카메라가 자율주행 차량에서 의료 진단에 이르기까지 고성능 이미징 시장의 45%를 차지할 것으로 예측하고 있습니다. 그 이유와 방법은 다음과 같습니다. 신경 카메라가 CMOS 모듈을 영원히 대체하고 있습니다. CMOS의 숨겨진 결함: 깨진 타협 위에 구축되었습니다
수십 년 동안, CMOS 제조업체들은 두 가지 상충되는 목표를 추구해왔습니다: 더 높은 해상도와 더 빠른 프레임 속도. 스택형 CMOS(최신 버전으로, 아이폰 15 프로와 같은 플래그십 폰에 사용됨)는 TSV(Through Silicon Via) 기술을 통해 이를 해결하려고 시도했으며, 픽셀 레이어를 논리 회로와 분리하여 대역폭을 증가시켰습니다. 그러나 이러한 임시방편적인 접근 방식은 새로운 문제를 야기했습니다: TSV는 열 채널 역할을 하여 픽셀 온도를 상승시키고 노이즈를 증가시킵니다. 더 나쁜 것은, 스택형 CMOS가 여전히 “프레임 기반” 모델을 고수하고 있다는 것입니다—모든 픽셀이 동일한 기간 동안 빛을 포착하여 속도와 신호 대 잡음 비율(SNR) 간의 절충을 강요합니다.
신경과학자가 뇌 활동을 연구한다고 가정해 보자: 밀리초 단위의 전압 스파이크를 추적하기 위해서는 초당 1,000프레임 이상의 속도가 필요하다. 그러나 그 속도의 CMOS 센서는 너무 적은 빛을 포착하여 신호가 잡음에 의해 묻혀버린다. 반대로, 더 나은 SNR을 위해 긴 노출을 사용하면 빠르게 움직이는 대상이 흐릿해진다. 이것은 CMOS의 결함이 아니라 설계의 특징이다. MIT 연구원 매튜 윌슨은 이렇게 말한다: “CMOS의 일률적인 노출은 동적이고 복잡한 장면을 이미징하려고 할 때 근본적인 한계다.”
다른 결함은 더 깊습니다:
• 데이터 중복성: CMOS는 정적 배경을 포함하여 모든 프레임의 모든 픽셀을 기록하여 대역폭의 80%를 낭비합니다.
• 동적 범위 한계: 전통적인 CMOS는 80–100 dB에서 정점에 도달하며, 고대비 환경(예: 숲 위의 일몰)에서 실패합니다.
• 지연 시간: 아날로그 빛 신호를 디지털 데이터로 변환하고 이를 프로세서로 전송하는 과정에서 지연이 발생합니다. 이는 자율 주행과 같은 애플리케이션에 치명적입니다.
이 문제들은 더 나은 제조로 해결될 수 있는 것이 아닙니다. CMOS는 자신의 구조의 희생자입니다. 반면 신경 카메라는 이러한 타협을 없애기 위해 설계되었습니다.
신경 카메라: 세 가지 혁신적인 변화
신경 카메라는 인간 망막에서 영감을 받아 빛이 변화할 때만 신호를 발사합니다. 불필요한 데이터도, 고정 노출 시간도 없습니다. 그들이 규칙을 어떻게 다시 쓰고 있는지 살펴보세요:
1. 프로그래머블 픽셀: 각 픽셀은 자신의 목적을 위해 작동합니다.
가장 큰 혁신은 픽셀 수준의 지능에서 나옵니다. 2024년에 공개된 MIT의 프로그래머블 노출 CMOS (PE-CMOS) 센서는 각 픽셀이 독립적으로 자신의 노출 시간을 설정할 수 있게 해줍니다. 픽셀당 단지 여섯 개의 트랜지스터를 사용하여 (이전 설계의 단순화), 인접한 픽셀들이 서로 보완할 수 있습니다: 빠른 노출 픽셀은 빠른 움직임(예: 신경 스파이크)을 추적하고, 느린 노출 픽셀은 어두운 영역의 세부 사항을 캡처합니다 - 모두 같은 장면에서.
테스트에서 PE-CMOS는 신경 이미징에서 단일 스파이크 해상도를 달성했으며, 이는 CMOS가 속도를 희생하지 않고는 이룰 수 없는 성과입니다. “우리는 단순히 빛을 포착하는 것이 아니라, 각 픽셀이 빛과 상호작용하는 방식을 최적화하고 있습니다.”라고 수석 연구원인 Jie Zhang이 설명합니다. 이 유연성은 CMOS를 괴롭히는 속도-SNR 트레이드오프를 없애줍니다.
2. 이벤트 기반 이미징: 중요한 순간에만 데이터 수집
이벤트 카메라(신경 카메라의 일종)는 이를 한 단계 더 발전시킵니다: 픽셀이 빛의 강도 변화 감지 시에만 데이터를 생성합니다. 프레임 대신, 이들은 좌표, 타임스탬프 및 극성(빛의 증가 또는 감소)을 가진 작은 정보 패킷인 “이벤트”를 출력합니다.
결과는 혁신적입니다:
• 120+ dB 다이나믹 레인지: 이벤트 카메라는 직사광선과 어두운 그림자를 동시에 처리합니다.
• 마이크로초 대기 시간: 프레임 버퍼가 없으므로 거의 즉각적인 데이터 출력을 제공합니다—충돌을 피하는 자율주행차에 필수적입니다.
• 90% 적은 데이터: 정적 장면을 무시함으로써 이벤트 카메라는 대역폭 요구를 줄이고, CMOS에 비해 전력 소비를 70% 절감합니다.
인도 과학 연구소의 연구자들은 iniVation의 이벤트 카메라를 사용하여 50 나노미터보다 작은 나노입자를 이미징했습니다—전통적인 현미경의 회절 한계를 넘어섭니다. 카메라의 희소 데이터 스트림은 AI 알고리즘이 의미 있는 신호에 집중할 수 있게 하여, 잡음을 유용한 정보로 변환합니다.
3. 센서 내 AI: 캡처뿐만 아니라 처리
CMOS가 외부 프로세서를 통해 이미지를 분석하는 것과 달리, 신경 카메라는 AI를 센서에 직접 통합합니다. 삼성의 최신 스택형 센서에는 이미 기본적인 AI 모듈이 포함되어 있어 노이즈 감소를 지원하지만, 신경 카메라는 이를 새로운 차원으로 끌어올립니다: 데이터를 캡처하는 즉시 처리합니다.
예를 들어, Prophesee의 메타비전 센서는 칩 내 신경망을 사용하여 실시간으로 객체를 감지하고, 관련 데이터만을 주요 프로세서로 전송합니다. 산업 검사에서는 이는 생산 라인에서 결함을 식별하는 것을 의미하며, 쓸모없는 영상을 테라바이트 단위로 저장할 필요가 없습니다. “신경 카메라는 단순한 이미지 센서가 아닙니다—그들은 인식 엔진입니다,”라고 나노기술 연구의 공동 저자 Chetan Singh Thakur가 말합니다.
실제 대체: 신경 카메라가 이미 승리하고 있는 곳
CMOS에서 신경 카메라로의 전환은 이론적이지 않습니다—오늘날 실제로 일어나고 있으며, CMOS의 결함이 가장 비용이 많이 드는 고부가가치 응용 프로그램에서 시작됩니다:
신경 과학 및 의료 영상
MIT의 PE-CMOS는 이미 자유롭게 움직이는 동물의 신경 활동을 추적하는 데 사용되고 있으며, 이는 CMOS가 흐림이나 잡음 없이 할 수 없는 것입니다. 내시경에서 이벤트 카메라의 낮은 지연 시간과 높은 동적 범위는 의사가 강한 조명 없이 신체 내부를 볼 수 있게 하여 환자의 불편함을 줄입니다.
자율주행차
테슬라와 웨이모는 블라인드 스팟을 없애고 반응 시간을 줄이기 위해 CMOS와 함께 이벤트 카메라를 테스트하고 있습니다. 신경 카메라는 CMOS보다 10배 빠르게 도로로 뛰어드는 아이를 감지할 수 있어 사고를 예방할 수 있습니다.
나노기술 및 재료 과학
IISc의 신경형 미세현미경은 이제 상용화되어 연구자들이 전례 없는 정밀도로 분자 운동을 연구할 수 있게 되었습니다. 이는 단순한 업그레이드가 아니라 과학 연구에서 가능한 것을 확장하는 새로운 도구입니다.
소비자 전자제품 (다음 정거장)
신경 카메라는 현재 CMOS보다 더 비싸지만, 비용은 감소하고 있습니다. MIT의 간소화된 픽셀 디자인은 제조 복잡성을 줄이며, 대량 생산은 2027년까지 가격을 CMOS 수준으로 낮출 것입니다. 플래그십 스마트폰은 아마도 하이브리드 시스템을 먼저 채택할 것입니다—비디오와 저조도 촬영을 위한 신경 카메라, 정지 이미지를 위한 CMOS—2030년까지 CMOS를 완전히 대체하기 전에 말이죠.
대체 경로: 진화, 혁신이 아닌
신경 카메라가 CMOS를 즉시 대체하지는 않을 것입니다. 전환은 세 가지 단계로 진행됩니다:
1. 보완적 사용 (2024–2026): 신경 카메라는 고성능 애플리케이션(예: 자율주행차, 과학적 이미징)에서 CMOS를 보완합니다.
2. 선택적 대체 (2026–2028): 비용이 감소함에 따라, 신경 카메라는 속도와 저조도 성능이 가장 중요한 전문 소비자 시장(예: 액션 카메라, 드론 사진)을 차지하게 됩니다.
3. 주류 지배 (2028–2030): 신경 카메라가 스마트폰, 노트북 및 IoT 장치에서 기본 옵션이 되며, CMOS는 저가 제품에 한정됩니다.
이 경로는 2000년대 CCD에서 CMOS로의 전환을 반영합니다. 이는 단순한 비용이 아닌 성능에 의해 주도되었습니다. 산업 분석가인 사라 첸은 "CMOS는 더 유연했기 때문에 CCD를 대체했습니다."라고 말합니다. "신경 카메라는 같은 이유로 CMOS를 대체하고 있습니다: 장면에 적응하며, 그 반대가 아닙니다."
극복해야 할 도전 과제
약속에도 불구하고, 신경 카메라는 장애물에 직면해 있습니다:
• 산업 표준: 이벤트 데이터에 대한 보편적인 프로토콜이 없기 때문에 센서와 소프트웨어 간의 호환성 문제 발생.
• 저조도 감도: 이벤트 카메라는 대비에서 뛰어나지만, 거의 완전한 어둠에서는 여전히 어려움을 겪고 있습니다. MIT의 연구가 개선된 포토다이오드를 통해 이를 해결하고 있습니다.
• 인식 편향: 센서 내 AI는 제대로 훈련되지 않으면 편향을 도입할 수 있으며, 이는 안전이 중요한 응용 프로그램에서 위험이 됩니다.
이러한 도전 과제는 해결 가능합니다. IEEE와 같은 컨소시엄이 이벤트 카메라 표준을 개발하고 있으며, 스타트업들이 저조도 최적화에 투자하고 있습니다. 가장 큰 장벽은 기술이 아니라 사고방식입니다: 제조업체와 개발자는 카메라가 단순히 사진을 찍는 것이 아니라, 자신이 보고 있는 것을 이해하는 세상에 적응해야 합니다.
결론: 이미징의 미래는 신경입니다.
전통적인 CMOS 모듈은 디지털 카메라를 접근 가능하게 하여 사진 촬영에 혁신을 가져왔습니다. 그러나 이들은 AI, 자율성 및 과학적 발견의 요구를 따라잡을 수 없는 프레임 기반 사고에 갇혀 있습니다. 신경 카메라는 CMOS를 단순히 개선하는 것이 아니라 이미지 센서가 무엇이 될 수 있는지를 재정의합니다.
프로그래머블 픽셀, 이벤트 기반 데이터 및 센서 내 AI를 결합함으로써 신경 카메라는 수십 년 동안 이미징을 저해해온 타협을 없앱니다. 이들은 더 빠르고, 더 스마트하며, 더 효율적이며, 이미 가장 중요한 응용 프로그램에서 CMOS를 대체하고 있습니다. 비용이 감소하고 기술이 성숙해짐에 따라 신경 카메라는 오늘날의 CMOS처럼 보편화되어 사진을 찍는 방식뿐만 아니라 세상과 상호작용하는 방식을 변화시킬 것입니다.
질문은 신경 카메라가 CMOS를 대체할 것인가가 아니라, 당신이 그것을 얼마나 빨리 채택할 것인가입니다. 기업에게 이 대답은 경쟁에서 앞서 나가는 것을 의미할 수 있습니다. 소비자에게는 더 나은 사진, 더 안전한 자동차, 그리고 우리가 아직 상상하지 못한 기술을 의미합니다. 이미징의 미래는 신경적이며, 당신이 생각하는 것보다 더 빨리 다가오고 있습니다.