디지털 너구리 : 게임, IT 정보 및 다양한 지식 공유드립니다.

 

 

 

 

 

 

 

 


1. Interoperability(상호운용성)

서로 다른 사물 또는 시스템간 데이터 교류 및 의사소통이 가능하여 어떤 목적이 상호간 협력적으로 수행되는 것. IOT에선 반드시 인간의 도움 없이 상호 운용성이 가능해야 합니다.

 

데이터 교환 및 통신이 간으하도록 하려면 상호간표준화가 필요하던가 서로 다른 표준을 연결해줄 브로커(게이트웨이)가 있어야 하고 인간의 도움을 배제하기 위해선 AI가 필요합니다.

 

목소리는 IOT 지능을 해방하고 활용하는 것을 허락한다면 요구와 목적을 확실히 만들어줍니다.

 

하지만 문제들도 발생합니다. 운용 시스템이 모든 사람을 만족시킬 수 없습니다. 많은 사람들이 가치 있는 데이터를 나누기를 원하지 않습니다.

 

“giant”는 상호운용성을 만드는데 아무런 이득이 없다. 각 회사들은 그들만의 시스템을 구현하여 경쟁한다.

 

IOT 필요를 위한 AI는 상호운용성이 필요하다. 진짜 Intelligent IOT ecosystem은 조화를 이룬 상태에서 활용됩니다.

 

2. AI는 무엇일까?

AI는 인간의 두뇌 활동의 역할을 합니다. AI 컴퓨터는 인간의 두뇌를 재생하도록 프로그램 되어 있습니다.

 

(1) 머신 러닝

머신 러닝은 기계가 학습을 하면서 그 안에서 규칙성을 발견합니다. 이를 경험과 비슷하다고 생각하면 됩니다.

 

 

 

 

(2) 딥러닝

 

딥러닝은 머신러닝에 포함된 개념으로 완전한 머신러닝이라고 생각하시면 됩니다.

 

딥 러닝은 다중 처리 계층으로 구성된 계산 모델이 다중 추상화 레벨(키워드. 핵심 내용)로 데이터 표현을 학습할 수 있도록 합니다. 딥 러닝 NN은 매우 복잡한 기능, 고도 (다층) 비선형 함수 문제를 학습할 수 있습니다.

 

딥 러닝 기술에는 딥(인공) 신경망 컨볼 루션 딥 신경망, 딥 신뢰 네트워크가 있습니다.

 

 

• 딥 러닝 = 계층적 표현(Representation) 학습 (다층) ( Representation : 원시 데이터를 컴퓨터가 이해할 수있는 유형 / 형태로 변환 ) 딥 러닝은 인공 신경망이라고하는 뇌의 구조와 기능에서 영감을 얻은 알고리즘과 관련된 머신 러닝의 하위 필드입니다.

 

• 대형 (다층) 인공 신경 네트워크의 개발을 설명하는 “Deep”. 딥 러닝은 여러 계층의 신경망에서 "Deep" 교육에 대한 접근 방식입니다.

 

• 딥 러닝은 계층적 특징 (특성. 특징) 학습입니다. 기능 학습(Feature Learning)이라고도 하는 원시 데이터에서 자동 기능 추출을 수행할 수 있습니다.

 

 

(3) 딥러닝 학습 방법

 

신경망에는 세 가지 유형의 학습 방법이 있습니다.

 

1. 지도 학습 (즉, 교사와의 학습 (= 목표))

2. 비지도 학습 (즉, 도움이없는 학습 (목표 없음))

3. 강화 (또는 보상) 학습 (즉, 피드백이 제한적인 학습)

 

 

(4) 활성화 함수(Activation Function)

Activation Function(활성화 함수) : 입력 데이터를 제한된 범위의 값으로 스쿼시하고 복잡한 비선형 함수를 매핑합니다.

 

선형 데이터를 비선형 함수로 변환하는 함수를 활성화 함수라고 합니다.

 

 

 

* 왜 활성화 함수가 필요할까?

 

신경망은 복잡한 매핑 기능을 구현해야합니다. 따라서 모든 기능을 근사화하는 데 필요한 비선형 속성을 많이 가져 오려면 비선형 활성화 기능이 필요합니다.

 

활성화 함수 없는 뉴런은 선형 활성화 함수가 있는 뉴런과 동일합니다. (* 이러한 활성화 함수는 비선형 성능을 추가하지 않으므로 전체 네트워크는 단일 선형 뉴런과 동일합니다. 즉, 다중 계층 선형 네트워크를 갖는 것은 하나의 선형 노드와 같습니다.)

 

 

활성화 함수는 또한 뉴런으로부터 무한한 선형 가중치 합을 스쿼시하는데 중요하다.

 

 

1) 네트워크에 3 개 이상의 계층이있는 경우 심층적입니다.

2) 딥 러닝 NN은 매우 복잡한 함수, 고도의 비선형 함수 문제를 배울 수 있습니다. 2) 그러나 딥 러닝 방법은 과적합 문제를 일으 킵니다.

 

1) 데이터에 적합하도록 모델의 유연성을 높이기 위해 바이어스 노드가 추가됩니다 (즉, 패턴 피팅 값 공간을 늘리고 바이어스 된 학습을 피함). 특히, 모든 입력 기능이 0 일 때 네트워크가 데이터에 적합하도록 허용합니다 (이 경우 모든 입력으로 인해 입력 패턴을 분류하기가 매우 어렵습니다. ex) XOR의 데이터 세트 문제

2) 데이터 공간에서 적합치의 바이어스를 줄일 가능성이 높습니다.

3) 일반적으로 피드 포워드 네트워크의 입력 레이어 및 모든 숨겨진 레이어에 단일 바이어스 노드가 추가됩니다.

 

 

 

(5) Overfitting(과적합)

1) 모델 또는 알고리즘이 데이터를 너무 잘 적합하면 과적합이 발생합니다. 특히 모델 또는 알고리즘이 바이어스가 적지 만 분산이 높은 경우 과적 합이 발생합니다. 과적 합은 종종 복잡한 모델로 인해 또는 훈련 데이터 세트 (또는 편향된 훈련 데이터 세트)가 부족하여 지나치게 복잡한 모델의 결과입니다.

 

2) 언더 피팅은 모델 또는 알고리즘이 데이터를 충분히 적합하지 않을 때 발생합니다. 특히 모형 또는 알고리즘이 분산이 작지만 바이어스가 높은 경우 언더 피팅이 발생합니다.

 

 

 

# 어떻게 딥러닝에서 Overfitting 문제를 풀 수 있을까?

 

(1) Alphago는 딥 러닝 NN 모델을 사용합니다.

(2) Alphago는 과적 합 문제를 해결했습니다.

(3) Alphago는 강화 학습 방법 (액터 크리티컬 아키텍처 및 Q- 러닝 아키텍처)을 사용합니다.

 

답은 심층 신경망으로 알려진 인공 신경망의 클래스와 강화 (보상) 학습을 결합 할 수있는 DQN (Deep Q-network)을 사용하는 것입니다.

반응형

공유하기

facebook twitter kakaoTalk kakaostory naver band