본문 바로가기

인공지능/Paper Review

[Paper] VadCLIP: Adapting Vision-Language Models for Weakly SupervisedVideo Anomaly Detection VadCLIP: Adapting Vision-Language Models for Weakly Supervised Video Anomaly Detectionhttps://ojs.aaai.org/index.php/AAAI/article/view/28423 VadCLIP: Adapting Vision-Language Models for Weakly Supervised Video Anomaly Detection | Proceedings of the AAAI Conferen ojs.aaai.orgWu, P., Zhou, X., Pang, G., Zhou, L., Yan, Q., Wang, P., & Zhang, Y. (2024, March). Vadclip: Adapting vision-language model.. 더보기
[Paper] CLIP4Clip: An Empirical Study of CLIP for End to End Video ClipRetrieval 논문링크 CLIP4Clip: An Empirical Study of CLIP for End to End Video Clip RetrievalVideo-text retrieval plays an essential role in multi-modal research and has been widely used in many real-world web applications. The CLIP (Contrastive Language-Image Pre-training), an image-language pre-training model, has demonstrated the power of visuaarxiv.orgClip의 경우 Image-Text 간의 유사도를 계산하는 방식일반적으로 Video Retrieva.. 더보기
[Paper] CLIP - Learning Transferable Visual Models From Natural Language Supervision 이 글에서는 OpenAI의 유명 모델인 CLIP이 소개된 논문 Learning Transferable Visual Models From Natural Language Supervision에 관해 리뷰해보려 한다. 🟥 CLIP해당 논문에서 소개하는 모델이 CLIP이라고 불리는 이유는 논문에서 'which we call CLIP, for Contrastive Language-Image Pre-training' 라고 소개하고 있기 때문이다. 해당 모델은 나무위키에도 있을 정도로 유명 모델이라고 할 수 있다.https://namu.wiki/w/CLIP%20%EB%AA%A8%EB%8D%B8왜 그런고 하니 CLIP은 텍스트와 이미지를 함께 처리할 수 있는 방법을 제시하였고 그로 인해 AI 그림 생성과 같은 많은 .. 더보기