Skip to content

量化后模型参数文件大小并没有变化 #108

@StrugglingForBetter

Description

@StrugglingForBetter

@coldlarry @PiseyYou

通过修改models.py中的W_bit和A_bit, 设置为8, 但是用下面的指令训练后,得到的模型参数文件大小并没有发生变化

python3 train.py --data data/oxfordhand.data --batch-size 32 --accumulate 1 --weights weights/yolov3.weights --cfg cfg/yolov3-quantize-hand.cfg

按道理量化后模型会变小,请问如何将flot32的模型转换成int8 的模型?

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions