Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- discord
- web3.0
- ChatGPT
- Golang
- embodied
- bricksassistant
- Hexagonal Architecture
- 웹3.0
- frontend
- datahub
- vln
- 디스코드봇
- airflow
- 디스코드챗봇
- Ai
- 블록체인
- GPT
- databricks
- vision-language navigation
- video understanding
- Spark
- 디스코드
- MLFlow
- backend
- embodied ai
- s3
- 챗봇
- Rust
- data discovery
- lambda
Archives
- Today
- Total
목록vision-language navigation (1)
BRICKSTUDY
Embodied AI : Vision-Language Navigation Challenges
2024.09.01 - [AI] - Embodied AI : Survey(2) 1. 개요안녕하십니까, 브릭스터디 박찬영입니다. 지난 포스팅에서 다룬 Embodied AI 서베이 논문 내용에서는 Embodied Ai의 task들, 고려사항들에 대해서 다루었습니다. 그중 task에서 가장 주목을 받고 있는 분야가 바로 Vision-Language Navigation(VLN)인데요. 오늘은 VLN관련해서 알아보려고 합니다. 참고한 논문은 다음과 같습니다. Zhang, Yue, et al. "Vision-and-Language Navigation Today and Tomorrow: A Survey in the Era of Foundation Models." arXiv preprint arXiv:2407.070..
AI
2024. 9. 28. 21:19