AI.zip
  • AI 모델
  • 방법론
  • AI 서비스
  • 가격 비교
  • 블로그

AI.zip

AI 모델, 서비스, 방법론을 큐레이션하는 에디토리얼 플랫폼

탐색

  • AI 모델
  • AI 서비스
  • 방법론
  • 블로그

커뮤니티

  • 소개
  • 디스코드 참여
  • 문의

법적고지

  • 이용약관
  • 개인정보처리방침

© 2026 ai.zip. All rights reserved.

Discord 커뮤니티
방법론AutoMLNeural Architecture Search (NAS)

Neural Architecture Search (NAS)

AutoML

쉽게 이해하기

NAS는 AI가 스스로 AI 구조를 설계하는 기술입니다. 사람이 신경망 레이어 수, 연결 방식을 수작업으로 설계하던 것을 자동화합니다. 비유하자면, 건물 설계를 사람 건축가 대신 AI가 수천 가지 설계도를 시뮬레이션하며 최적을 찾는 것입니다. Google의 AmoebaNet, EfficientNet이 NAS로 발견되었으며, 모바일 환경에 최적화된 MobileNetV3도 NAS의 산물입니다.

기술 심층 분석

  • 탐색 공간(Search Space): 레이어 타입(Conv/Pool/Skip), 커널 크기, 채널 수, 연결 패턴

  • 탐색 전략:

    • 강화학습 기반 (RL-NAS): 컨트롤러 RNN이 아키텍처 토큰 생성, child network 성능으로 보상 J(θc)=Ea1:T∼πθ[R]J(\theta_c) = \mathbb{E}_{a_{1:T} \sim \pi_\theta}[R]J(θc​)=Ea1:T​∼πθ​​[R]
    • 진화 알고리즘: 돌연변이+교배로 세대 진화 (AmoebaNet)
    • One-shot/Weight Sharing (DARTS): 모든 후보 연산을 소프트맥스 가중합으로 표현, 연속 완화: oˉ(i,j)(x)=∑o∈Oexp⁡(αo(i,j))∑o′exp⁡(αo′(i,j))o(x)\bar{o}^{(i,j)}(x) = \sum_{o \in \mathcal{O}} \frac{\exp(\alpha_o^{(i,j)})}{\sum_{o'} \exp(\alpha_{o'}^{(i,j)})} o(x)oˉ(i,j)(x)=∑o∈O​∑o′​exp(αo′(i,j)​)exp(αo(i,j)​)​o(x) 학습 후 가장 높은 α\alphaα의 연산 선택
  • 성능 예측기(Performance Predictor): 학습 곡선 외삽, 제로샷 프록시(SNIP, GradNorm)로 학습 없이 아키텍처 평가

  • 하드웨어 인식 NAS: 정확도 + 지연시간(latency) 동시 최적화 score=ACC×(TtargetTmeasured)w\text{score} = \text{ACC} \times \left(\frac{T_\text{target}}{T_\text{measured}}\right)^wscore=ACC×(Tmeasured​Ttarget​​)w

  • 변형: ProxylessNAS, MNasNet, FBNet, Once-for-All (OFA)

Footnotes

이전글

Naive RAG

다음글

ORPO

댓글

0개

댓글을 작성하려면

로그인

해주세요

방법론 정보

상위 카테고리

AutoML

관련 게시글

2개

사용 서비스

0개

관련 게시글

Auto Research vs AutoML: LLM 자율 연구와 자동 ML의 핵심 차이

COMPARISON

AI 재귀적 자기 개선 완전 가이드: 특이점 논쟁부터 실전 활용까지

GUIDE

관련 방법론

Hyperparameter Optimization (HPO)