[논문요약] Safe Nonlinear Control Using Robust Neural Lyapunov-Barrier Functions


[논문요약] Safe Nonlinear Control Using Robust Neural Lyapunov-Barrier Functions

PAPER SUMMARY Safe Nonlinear Control Using Robust Neural Lyapunov-Barrier Functions 참고하면 좋을 영상 https://youtu.be/4MWVLtURxG0 https://www.youtube.com/watch?v=ZEsQZeBOMDI 논문 정보 논문명: Safe Nonlinear Control Using Robust Neural Lyapunov-Barrier Functions 저자: Spencer M. Richards, Felix Berkenkamp 기관명: MIT, UCSD 출판연도: 2021년 출판저널: 5th Conference on Robot Learning(CoRL 2021) 인용수: 12회 Abstract 강화학습 알고리즘을 실제 세상에 적용하는데 있어서 큰 어려움은 Safety와 Stability의 보장이다. 이 논문에서는 Robust Convex Optimization와 Lyapunov theory를 결...


#ai #머신러닝 #비선형 #비선형제어 #안전강화학습 #인공지능 #자율주행 #제어 #제어공학 #제어장벽함수 #조건 #마르코프 #리야푸노프 #리아푸노프 #Barrier #Control #Function #HJ #Lyapunov #MDP #Reachability #rl #safe #결정과정 #최적제어

원문링크 : [논문요약] Safe Nonlinear Control Using Robust Neural Lyapunov-Barrier Functions