전체 글 87

#10 MOS Capacitor (2) - MOS C-V (Capacitance-Voltage) 특성

1. MOS C-V (Capacitance-Voltage) 특성MOS C-V 특성은 성능을 측정하기 위해 전압을 달리하여 그 변화를 확인하는 방법이다.1.1.  Accumulation 영역게이트 전압이 충분히 낮을 때 다수 캐리어들이 반도체 표면에 축적된다.전하량은 축적된 전하의 양에 따라 변한다. Gate 전압에 비례한다. 전기 용량 Cox​는 산화막 두께가 변하지 않기 때문에 일정하게 유지된다. 1.2. Depletion 영역게이트 전압이 증가하면서 반도체 표면의 다수 캐리어가 밀려나고, 고갈층(Depletion region)이 형성된다.전하량의 범위가 변화하는 이유: 고갈된 영역이 커지면서 전하량이 줄어들기 때문이다.전기 용량은 고갈층의 두께에 비례하므로, C_dep (Depletion region..

#24 GAN: Generative Adversarial Network

1. Generative modelGenerative model은 데이터를 학습하고 새로운 데이터를 생성하는 모델이다.1.1. 학습 과정데이터 제공여러 종류의 데이터를 모델에 제공하며 모델은 각 데이터의 특징과 분포를 학습한다. 예를 들어 고양이, 개, 새 이미지 데이터를 제공하면 모델은 각 데이터의 특성과 패턴을 학습한다.분포 학습학습 과정에서는 데이터 간의 비율과 특성을 파악하며, 이를 통해 데이터 전체의 분포를 이해한다. 예를 들어, 학습 데이터의 분포가 고양이 30%, 개 50%, 새 20%로 구성되어 있다고 가정할 수 있다.1.2. 생성 과정생성 과정에서는 학습된 분포를 기반으로 특정 주제의 데이터를 생성한다. 예를 들어, 개 이미지를 생성하고 싶다면 모델은 학습된 분포 중 개의 특징을 학습한 ..

#10 Image Segmentation

1. Graph Cuts for SegmentationGraph Cuts는 이미지에서 Background와 Object를 분리하는 방법으로 그래프 이론과 Energy Minimization에 기반한다. 이 과정에서 각 픽셀은 그래프의 노드로 표현되며 노드 간 연결(엣지)을 통해 관계를 정의한다.1.1. 그래프 정의1.1.1. 노드(Node) 각 픽셀은 그래프의 노드가 되며, Source(S)와 Sink(T) 노드가 추가로 정의된다.Source 노드(S): Object를 나타내는 노드.Sink 노드(T): Background를 나타내는 노드.1.1.2. 엣지(Edge) 두 종류의 엣지가 있다.t-link (Terminal Link)각 픽셀 노드가 Source(S)나 Sink(T)와 연결되는 엣지.t-lin..

#6 Wired and Wireless LANs

LAN(Local Area Network)은 유선 LAN과 무선 LAN으로 나눌 수 있다. 각자의 기술을 대표하는 표준으로는 IEEE 802.3(Ethernet)과 IEEE 802.11(Wi-Fi)이 있다. 이 표준들은 주로 OSI 참조 모델의 Physical Layer(L1)과 Data Link Layer(L2)에서 작동하며 특히 Data Link Layer의 MAC sublayer에서 공유 매체를 사용하는 방법과 충돌 방지 및 관리에 대한 내용이 중요하다. IEEE 802.3과 IEEE 802.11의 주요 특징과 MAC 서브 계층에서 공유 매체를 처리하는 방식에 대해 알아보자. 0. IEEE 802 SeriesIEEE 802 표준은 Computer Networking 및 Data 통신을 위한 국제 표..

#19 CNN Architecture (2)

1. VGGConv layer: 3x3 filters, stride 1, pad 1Pooling layer: max pooling in 2x2, stride 2 얘는 코드 보면서 공부 18장도 마찬가지 filter의 tensor는 사이즈 제곱*이전채널수*필터의개수FC는 모든 pixel곱하기 다음 채널수 2. ResNetdegradation problem을 해결하기 위해 Residual을 더하게 되며 이는 모델 학습을 더 쉽게 만들어준다.입력 신호를 그대로 전달하여 정보 손실을 방지하고 학습의 안정성을 높인다.잔차를 학습함으로써 전체 변환함수보다 더 간단하고 효율적인 학습을 가능하게 한다.

#18 CNN Architecture (1)

1. AlexNet- 필터사이즈 보면서 아웃풋 예측- 파라미터 수 계산- pooling은 없다.- bias도 파라미터로 센다면 filter 당 하나가 있다. 2. GoogleNet1×1 Convolution은 채널 간의 상호작용을 반영하여 다음과 같은 역할을 수행합니다:채널 수를 늘리거나 줄이는 역할 (Dimensionality Expansion/Reduction)채널 간의 정보를 섞는 역할 (Feature Mixing)

#16 Convolutional Neural Network (1)

1. 왜 CNN(Convolutional Neural Network)을 사용할까?매우 큰 parameter 수로 인한 overfitting을 해결하기 위해 딥러닝에서 이미지 데이터를 처리하기 위해 CNN을 사용한다.1.1. Full Connectivity의 비효율성기존의 Fully Connected Neural Network(완전 연결 신경망)에서는 이미지의 모든 픽셀이 하나의 뉴런에 연결된다. 이는 다음과 같은 문제가 발생한다.매우 많은 parameters예를 들어, 200×200×3 크기의 이미지(3채널 RGB 이미지)를 입력으로 사용하는 경우, 하나의 뉴런은 200×200×3=120,000개의 weight(가중치)를 학습해야 한다. 이는 너무 많은 계산 비용을 요구한다.더 큰 이미지를 생각해본다면,..

#15 Neural Network (4)

PCA 하는법데이터 분포를 보고 무엇을 했는지 정리  dropoutDropout은 신경망 모델에서 **과적합(overfitting)**을 방지하는 데 효과적인 기법입니다. 이 방법은 훈련 과정에서 신경망의 일부 뉴런을 임의로 "끄는" 방식으로 동작하며, 이로 인해 모델은 데이터 입장에서 새로운 모델을 학습하는 것처럼 보이게 됩니다.  데이터 입장에서 새로운 모델을 도는 것처럼 된다. 그래서 overfitting 방지

#13 Neural Network (2)

1. Activation function의 종류와 특징1.1. sigmoid function의 단점Gradient Vanishing (기울기 소실 문제)Saturation(포화) 영역에서 입력값이 매우 크거나 작을 경우, 기울기(gradient)가 거의 0에 가까워지기 때문에 역전파 중 가중치 업데이트가 제대로 이루어지지 않는다.Zero-Centered가 아님Sigmoid 함수는 출력값이 0과 1 사이로 제한되고 항상 양수파라미터 업데이트에서 모든 Gradient의 부호가 양수 또는 음수로 치우쳐짐가중치가 어느 한쪽 방향으로 지속적으로 크게 진동하거나 경사가 더디게 이동1.2. ReLU 함수의 특징 1.2.1. 장점빠른 수렴 속도Sigmoid 함수에 비해 학습 속도가 약 6배 빠르다.ReLU의 연산이 간..