We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
The text was updated successfully, but these errors were encountered:
: Development of Open Source LLVMs
KAIST 노용만 교수 연구팀에서 최근 공개한 오픈소스 LLVM(Large Language and Vision Model)
두 모델 모두 단순히 모델 사이즈나 고푸질 시각적 조정 데이터셋을 만들지 않고, 가장 최근의 시각-언어 모델(OpenAI의 GPT-4V, Google의 Gemini-pro)보다 시각 성능을 획기적으로 높임.
특히 CoLLaVO 모델에서는 instruction tuning 단계에 프롬프트로 학습한 정보의 소실을 줄이는 학습 전략인 'Dual QLoRA'를 제안하고 있음.
CoLLaVO 모델 외에 본 연구팀의 다른 모델들 모두 공개형 LLM으로 릴리즈되어 관련 확장 연구에 활용 가능하다는 점도 주목할만함.
++ 위 모델 외에도 NLP 분야 국제 학회인 ACL 2024에 게재된 LLaMa 3.1 기반의 멀티모달 LLM도 추가로 덧붙임.
Sorry, something went wrong.
(Pilippeshin)
Hydra-MDP: End-to-end Multimodal Planning with Multi-target Hydra-Distillation
Bringing Transformer Networks to the Edge with Arm Ethos-U85
No branches or pull requests
Interesting papers
Industry news
Screen.Recording.2024-08-14.at.6.46.54.PM.mov
Screen.Recording.2024-08-14.at.6.44.50.PM.mov
Screen.Recording.2024-08-14.at.6.51.40.PM.mov
Useful resources
The text was updated successfully, but these errors were encountered: