Skip to content

Accelerating the development of large multimodal models (LMMs) with one-click evaluation module - lmms-eval.

License

Notifications You must be signed in to change notification settings

UpstageAI/lmms-eval

This branch is 21 commits ahead of, 14 commits behind EvolvingLMMs-Lab/lmms-eval:main.

Folders and files

NameName
Last commit message
Last commit date
Feb 26, 2025
Dec 30, 2024
Mar 12, 2025
Feb 20, 2025
Feb 13, 2025
Feb 18, 2025
Feb 20, 2025
Sep 1, 2024
May 17, 2024
Feb 13, 2025
Feb 13, 2025
Feb 9, 2025
Feb 13, 2025
Jun 11, 2024
Nov 27, 2024

Repository files navigation

DocVision 모델 평가용 lmms-eval 패키지

설명

lmms-eval 프로그램을 포크하여, DocVision 모델을 추가한 레포지토리입니다. 모델 평가를 수행하기 위해서는 다음 설명에 따라 설정을 진행합니다.

단계 1 - 평가용 Conda 환경 설정

아래와 같이 lmms-eval 사용을 위한 Conda 환경을 생성합니다. 이 때, MoRA adapter 사용을 위해 mora 패키지를 추가로 설치합니다.

(base) hancheol@upstage-node-001:~/projects $

# lmms-eval 환경 생성
conda create -n lmms-eval python=3.11
conda activate lmms-eval

# DocVision용 lmms-eval 설치
git clone [email protected]:UpstageAI/lmms-eval.git
cd lmms-eval
pip install -e .

# 추가 필수 라이프러리 설치
pip install -r requirements.txt

단계 2 - 모델 준비 및 평가 실행

학습된 DocVision 모델을 준비합니다. 그리고 아래와 같이 scripts/run_eval.sh 파일을 실행하여 평가를 수행합니다. --model_path--tasks 는 필수 인자입니다. lmms-eval이 지원하는 모든 태스크는 current_tasks.md에서 확인 가능합니다.

(lmms-eval) hancheol@upstage-node-001:~/projects/lmms-eval $

scripts/run_eval.sh \
    --model_path /app/docfm/checkpoints/training/DocVision/SFT-SyntheticData/20250208_solar-exp-2_with-figureqa_900kX3_multipage-base-model/steps_5240 \
    --tasks docvqa \
    --gpu_ids 0,1,2,3 \
    --port 35001

About

Accelerating the development of large multimodal models (LMMs) with one-click evaluation module - lmms-eval.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • Python 92.9%
  • Jupyter Notebook 6.9%
  • Shell 0.2%