반응형 연구실29 [논문 리뷰] Physical Attack on Monocular Depth Estimation with Optimal Adversarial Patches 본 논문은 앞으로의 연구 과제에 기반이 될 것으로 보이는 ACM ECCV 2022 proceeding 에 등재된 논문이다. Abstract이 연구는 학습 기반 Monocular Depth Estimation(MDE)을 대상으로 하는 공격 기법을 개발한 내용을 다루고 있다. 이 연구에서는 최적화 기반 방법을 사용하여 실물 객체 지향적인 은밀한 적대적 패치를 생성하는 공격을 개발하였다. 이 적대적 패치는 depth estimation 을 attack 한다. 구체적으로, 객체 지향적 공격 설계와 민감 영역의 위치 확인, 그리고 자연스러운 스타일의 위장 기술을 통해 공격의 은밀성과 효과를 균형 있게 유지하는 방법을 탐구했다. 여기서 민감한 영역의 위치 확인 (sensitive region localization.. 2024. 10. 29. [Fuzzing] Lecture 2. Lexical Fuzzing : Mutation Analysis Mutation AnalysisCoverage 장에서 프로그램의 어느 부분이 실행되는지를 식별할 수 있는 방법을 소개했다. 이로 인해 테스트 케이스가 프로그램 구조를 얼마나 잘 커버하는지를 평가할 수 있다. 그러나 커버리지만으로는 테스트의 효과를 충분히 측정할 수 없다. 프로그램의 특정 부분을 잘 커버했더라도, 결과의 정확성을 전혀 확인하지 않는 경우도 있기 때문이다. 이번에는 test suite(여러 테스트 케이스, 테스트 묶음)의 효과를 평가하는 또 다른 방법을 소개한다. 코드에 인위적인 결함, 즉 변이를 주입한 후, 이러한 인위적 결함을 테스트 스위트가 감지할 수 있는지 확인한다. 만약 변이를 감지하지 못한다면, 실제 버그도 놓칠 가능성이 높다고 할 수 있다. Why Structural Cover.. 2024. 8. 22. [AI 15주차] Transformer Network Transformer NetworkTransformer Network Intuitionsequence 작업의 복잡도가 증가함에 따라, model 의 복잡도도 증가했다.RNN 에서 vanishing gradients 문제가 있어서 긴 범위의 의존성과 sequence를 포착하기 어렵다는 단점이 있어서 이를 해결하기 위한 모델인 GRU가 나왔고, 정보의 흐름을 제어하는 것이 용이하게 하기 위해 LSTM 으로 모델이 이동하면서 연산량과 작업량은 더 복잡해졌다. 이는 모든 모델들은 순차적 모델(sequential model)로, 마지막 단위를 계산하기 위해서는 이전의 단위를 계산해야만 하기 때문이다. Transformer architecture 는 전체 sequence에 대한 많은 계산들을 병렬적으로 실행하도록 .. 2024. 8. 19. [AI 14주차] Sequence models & Attention Mechanism 1. Various Sequence To Sequence ArchitecturesBasic Models이번에는 Sequence-to-sequence 모델에 대한 내용이다. Basic model부터 시작해서 Beam search와 attention model에 대해서 알아보자. 'Jane viste l'Afrique en septembre'라는 프랑스어로 된 문장을 영어 문장으로 변환하고 싶다면, 프랑스어로 된 문장 시퀀스를 x 부터 x 까지 표시하고, y 부터 y 까지 까지 사용해서 output 시퀀스 단어를 표시한다. 그렇다면 어떻게 새로운 network를 학습해서 시퀀스 x를 입력으로 하고 시퀀스 y를 출력할 수 있을까? 위와 같이 인코더(Encode.. 2024. 8. 19. 이전 1 2 3 4 5 ··· 8 다음 반응형