Linear complementarity problem

이미지
Linear complementarity problem From Wikipedia, the free encyclopedia In mathematical  optimization theory , the  linear complementarity problem (LCP)  arises frequently in  computational mechanics  and encompasses the well-known  quadratic programming as a special case. It was proposed by Cottle and  Dantzig   in 1968. [1] [2] [3] Contents    [ hide ]  1 Formulation 2 Convex quadratic-minimization: Minimum conditions 3 See also 4 Notes 5 References 6 Further reading 7 External links Formulation [ edit ] Given a real matrix  M  and vector  q , the linear complementarity problem LCP( M ,  q ) seeks vectors  z  and  w  which satisfy the following constraints: {\displaystyle w,z\geqslant 0,}  (that is, each component of these two vectors is non-negative) {\displaystyle z^{T}w=0}  or equivalently  {\displaystyle \sum \nolimits _{i}w_{i}z_{i}...

추천 로봇블로그 T-Robotics, 기계학습 로봇공학 무료교재 (pdf) 사이트

T-Robotics http://t-robotics.blogspot.kr 추천! 로봇공학 / 기계학습 무료 교재(pdf) 15가지 http://t-robotics.blogspot.kr/2015/01/pdf-15.html#.WUyeFuvyhhE

Deep leaning 딥러닝 (from wikipedia. 17/06/23)

이미지
https://ko.wikipedia.org/wiki/%EB%94%A5_%EB%9F%AC%EB%8B%9D 알고리즘 [ 편집 ] 다양한 종류의 심층 신경망 구조가 존재하지만, 대부분의 경우 대표적인 몇 가지 구조들에서 파생된 것이다. 그렇지만 여러 종류의 구조들의 성능을 동시에 비교하는 것이 항상 가능한 것은 아닌데, 그 이유는 특정 구조들의 경우 주어진  데이터  집합에 적합하도록 구현되지 않은 경우도 있기 때문이다. 심층 신경망(Deep Neural Network, DNN) [ 편집 ] 심층 신경망(Deep Neural Network, DNN)은 입력층(input layer)과 출력층(output layer) 사이에 여러 개의 은닉층(hidden layer)들로 이뤄진  인공신경망 (Artificial Neural Network, ANN)이다. [15] [16]  심층 신경망은 일반적인  인공신경망 과 마찬가지로 복잡한  비선형  관계(non-linear relationship)들을  모델링 할 수 있다. 예를 들어, 사물 식별  모델 을 위한 심층 신경망 구조에서는 각  객체 가  이미지  기본 요소들의 계층적 구성으로 표현될 수 있다. [17]  이때, 추가 계층들은 점진적으로 모여진 하위 계층들의 특징들을 규합시킬 수 있다. 심층 신경망의 이러한 특징은, 비슷하게 수행된  인공신경망 에 비해 더 적은 수의  유닛 (unit, node)들 만으로도 복잡한  데이터 를  모델링 할 수 있게 해준다. [15] 이전의 심층 신경망들은 보통 앞먹임 신경망으로 설계되어 왔지만, 최근의 연구들은 심층 학습 구조들을 순환 신경망(Recurrent Neural Network, RNN)에 성공적으로 적용했다. 일례로 언어 모델링(language modeling) 분야에 심층 신경망 구조를 적용한 사례...