MIT는 2013년을 촉발할 10대 혁신기술 중 하나로 MIT를 선정했고, 가트너(Inc.)는 최근 2014년 세계 IT 시장의 10대 주요 전망을 포함해 깊은 러닝에 관심이 높아졌다. 사실 딥 러닝 구조는 인공 신경망(ANN, 신경망을 기반으로 설계된 개념에서 인공 어스크 역사, 적어도 1980년 쿠미히모(Kunihiko)다. 후쿠시마가 도입한 네오코 니트론까지 거슬러 올라가야 한다.
1989년 Jan Luckun과 그의 동료는 오류 역전파 알고리즘을 기반으로 포스트에 손으로 쓴 우편 코드를 인식하기 위해 깊은 신경망을 도입했습니다. 알고리즘이 정상적으로 작동하지만 신경망 학습에 필요한 시간(숫자 10개를 인식하는 시간)은 거의 3일이 걸렸고, 이는 일반적으로 다른 분야에 적용되기에는 비현실적인 것으로 여겨졌다.
많은 요인이 느린 속도로 원인을 제공했는데, 그중 하나는 1991년 조르겐 슈미두버의 제자인 세 호 크레이터에 의해 분석되었는데, 그는 당시 침몰에서 뛰어난 인물이었다. (이 지역의 가장 큰 상승을 유지하기 때문에) 구매 문제였다. 불연속 시뮬레이션에서 초기 상태 선택 방법에 따라 수렴되지 않고 진동이나 발산의 문제, 훈련 세트에 너무 가까운 학습된 과적 합성 문제, 원칙적으로 생물학적 신경망과 다른 문제들이 끊임없이 제기되고, 인공신경망은 관심에서 멀리 떨어져 있으며, 90년대와 2000년대의 지원 벡터 기계와 같은 기술도 있다. 사람들은 빛을 받아요.
딥러닝이라는 용어는 2000년대 중년 딥러닝 기간을 주도한 공로를 인정받을 수 있는 제프리 힌튼과 라슬란 사라 카디노프가 사용하며, 기존 신경망의 과충돌 문제를 해결하고, 비꽈 RBC(구체화한 볼츠만 기계)를 통해 학습의 전제조건을 제공하는 데 사용된다. 각 계층은 과적 합을 방지하기 위해 사전 훈련으로 효과적으로 달성되어 초기 지점의 수준이 높아지며, 이는 다시 감독 백 전파를 사용하여 학습된다.
또한 2013년에는 신호처리 학회인 IC ASSP에서 RBC를 대체하여 과적 합성을 방지할 수 있는 중퇴 개념이 도입되어 사전 훈련보다 훨씬 쉽고 강한 형태로 과적 합성을 예방할 수 있게 되었다.
딥러닝이 부활하는 이유는 크게 세 가지로, 첫째, 딥러닝 역사에서 언급된 기존의 인공신경망 모델의 단점이 극복되었기 때문이다. 그러나 과적합 문제가 해결되어 학습 시간이 느리지 않으며 두 번째 이유로 하드웨어 개발에 또 다른 요소가 있습니다. 특히 강력한 GPU는 심층 학습에서 복잡한 매트릭스 작업에 필요한 시간을 크게 줄였으며 마지막으로 언급되었지만 세 번째로 중요한 이유로 빅 데이터를 얻습니다. 대량으로 넘쳐나는 데이터와 이를 수집하기 위한 노력, 특히 SNS 사용자가 제작한 대량의 자료와 태그 정보를 분석하고 학습에 활용할 수 있다.-인공신경망을 학습하는 데 사용되는 훈련 벡터는 데이터로 명명되어야 하지만, 대량의 훈련 세트를 라벨링 하는 것은 불가능하다. 이 때문에 조기학습에 사용되는 자료 중 일부는 교수학습만 하고 나머지 훈련 세트는 비지도 학습을 하고, 학습결과는 기존 학습결과와 이전의 분석 미터 태그 정보를 결합하여 감상자를 완성한다는 것이다.
심층학습의 부활 이후, 프로그램은 다양한 분야에서 가장 높은 수준의 수행력을 보이며, 특히 자동 음성인식(ASR, Automatic Speech Recognition)과 컴퓨터 비전 영역에서 가장 높은 수행력을 보인다. 이들은 보통 TIMID(텍사스 강사와 MIT가 만든 음성 데이터베이스), MOIST(이미지 충돌)가 딥 러닝에서 새로운 애플리케이션의 지속적인 성능을 향상하기 위해 만들어진다. 국립 표준기술원(창조)과 같은 데이터베이스는 학습을 위한 수작업 번호의 이미지 데이터베이스로 사용되었다; 더 최근에는 Convolution Neural Networks 기반 딥 러닝 알고리즘이 뛰어난 성능을 가지고 있으며, 컴퓨터 비전과 음성 인식과 같은 분야에서 특히 좋은 성능을 보여주었다.