-
Notifications
You must be signed in to change notification settings - Fork 125
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
为什么分拣出来的结果会包含其他阶段 #100
Comments
最好附一下你取的训练集(截几个图也可以),不然也没法判断选的训练集对不对。
一般情况来说是越多越好,有个原则是,阶段形态越复杂(该阶段可能发生的情景越多),你需要扔进去的训练集要相应增加。如果是非常静态且固定的,不用太多。
是的,keras分类器目前是可以适应不同分辨率。后续对于固定场景的全自动化,也更推荐使用keras。 |
嗯嗯,我试下,3Q~ |
还有一个疑问,虽然看stagesepx的相关wiki都提到最好使用外置设备或高速摄像设备采集视频,但这毕竟有较高的成本,也不是很方便,所以我这目前都是用手机自带录屏功能来录取视频。 |
软件录制+ffmpeg是目前比较推荐的方式,平衡了使用成本与准确度。这种方式目前在实验中表现不错,与外置摄像机的误差较小。但值得注意的一点就是必须使用 ffmpeg,否则在一些情况下(例如直接用adb录制)结果差异会非常大。 当然如果有外置摄像头也是很好的,目前软件录制可能存在的问题有两个:
|
嗯了解,那用ffmpeg把视频的fps转换到多少合适呢? |
差别是指什么差别? |
我尝试过后和提问者遇到的情况类似:使用例子里面的long.mp4,并直接使用stagespex自己生成的第一、第二阶段约40张视频图片进行机器训练,发现最后分类出的结果和实际还是有比较大的差距,有很多不属于该阶段的帧被分进去了。看到回答说要越多越好,想问一下实际落地的时候每阶段要约多少图片数才可以基本保证准确分类呢? |
附一下结果跟训练集(截图也可)? |
Hi,
我这边是直接使用示例视频生成出0-5共计6个阶段(附件中“原结果”),然后选择其中的1、2两个阶段的组图作为训练集进行训练(附件中zip文件),并根据该训练集跑出结果(附件中“训练后结果”)。
原结果中的stage1、stage2帧数为,stage1:frame_id 59 -frame_id 62;stage2:frame_id 95 -frame_id 226。
训练后结果中的stage1是从frame_id 1开始到frame_id 229的不连续帧,stage2的情况也是类似,还是有一定偏差的。
这边想问一下大概要多少图片集进行训练才可以达到基本准确呢?谢谢。
原始邮件
发件人: williamfzc<[email protected]>
收件人: williamfzc/stagesepx<[email protected]>
抄送: CiaraCai<[email protected]>; Comment<[email protected]>
发送时间: 2020年3月13日(周五) 00:07
主题: Re: [williamfzc/stagesepx] 为什么分拣出来的结果会包含其他阶段 (#100)
我尝试过后和提问者遇到的情况类似:使用例子里面的long.mp4,并直接使用stagespex自己生成的第一、第二阶段约40张视频图片进行机器训练,发现最后分类出的结果和实际还是有比较大的差距,有很多不属于该阶段的帧被分进去了。看到回答说要越多越好,想问一下实际落地的时候每阶段要约多少图片数才可以基本保证准确分类呢?
附一下结果跟训练集(截图也可)?
—
You are receiving this because you commented.
Reply to this email directly, view it on GitHub, or unsubscribe.
|
你的附件被github拦截了。直接发我邮箱 ([email protected]) 或者在网页端上传才行。 |
好的,我这边发到你的QQ邮箱了
原始邮件
发件人: williamfzc<[email protected]>
收件人: williamfzc/stagesepx<[email protected]>
抄送: Ciara<[email protected]>; Comment<[email protected]>
发送时间: 2020年3月13日(周五) 10:04
主题: Re: [williamfzc/stagesepx] 为什么分拣出来的结果会包含其他阶段 (#100)
Hi, 我这边是直接使用示例视频生成出0-5共计6个阶段(附件中“原结果”),然后选择其中的1、2两个阶段的组图作为训练集进行训练(附件中zip文件),并根据该训练集跑出结果(附件中“训练后结果”)。 原结果中的stage1、stage2帧数为,stage1:frame_id 59 -frame_id 62;stage2:frame_id 95 -frame_id 226。 训练后结果中的stage1是从frame_id 1开始到frame_id 229的不连续帧,stage2的情况也是类似,还是有一定偏差的。 这边想问一下大概要多少图片集进行训练才可以达到基本准确呢?谢谢。 原始邮件 发件人: [email protected] 收件人: williamfzc/[email protected] 抄送: [email protected]; [email protected] 发送时间: 2020年3月13日(周五) 00:07 主题: Re: [williamfzc/stagesepx] 为什么分拣出来的结果会包含其他阶段 (#100) 我尝试过后和提问者遇到的情况类似:使用例子里面的long.mp4,并直接使用stagespex自己生成的第一、第二阶段约40张视频图片进行机器训练,发现最后分类出的结果和实际还是有比较大的差距,有很多不属于该阶段的帧被分进去了。看到回答说要越多越好,想问一下实际落地的时候每阶段要约多少图片数才可以基本保证准确分类呢? 附一下结果跟训练集(截图也可)? — You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe.
你的附件被gitlab拦截了。直接发我邮箱 ([email protected]) 或者在网页端上传才行。
—
You are receiving this because you commented.
Reply to this email directly, view it on GitHub, or unsubscribe.
|
不太明白你的需求是什么,这样看运作其实没什么问题。 |
因为自动化的目标就是尽可能的归到正确的一类,但是我这边实验下来无法由此来计算冷启动时间并落地到项目中,因为偏差实在是太大了。我想问一下你们有使用机器学习落地的经验吗?需要多少图片或者如何训练才能保证基本上模型选择的是精准的呢?
原始邮件
发件人: williamfzc<[email protected]>
收件人: williamfzc/stagesepx<[email protected]>
抄送: Ciara<[email protected]>; Comment<[email protected]>
发送时间: 2020年3月13日(周五) 20:48
主题: Re: [williamfzc/stagesepx] 为什么分拣出来的结果会包含其他阶段 (#100)
好的,我这边发到你的QQ邮箱了 原始邮件 发件人: [email protected] 收件人: williamfzc/[email protected] 抄送: [email protected]; [email protected] 发送时间: 2020年3月13日(周五) 10:04 主题: Re: [williamfzc/stagesepx] 为什么分拣出来的结果会包含其他阶段 (#100) Hi, 我这边是直接使用示例视频生成出0-5共计6个阶段(附件中“原结果”),然后选择其中的1、2两个阶段的组图作为训练集进行训练(附件中zip文件),并根据该训练集跑出结果(附件中“训练后结果”)。 原结果中的stage1、stage2帧数为,stage1:frame_id 59 -frame_id 62;stage2:frame_id 95 -frame_id 226。 训练后结果中的stage1是从frame_id 1开始到frame_id 229的不连续帧,stage2的情况也是类似,还是有一定偏差的。 这边想问一下大概要多少图片集进行训练才可以达到基本准确呢?谢谢。 原始邮件 发件人: [email protected] 收件人: williamfzc/[email protected] 抄送: [email protected]; [email protected] 发送时间: 2020年3月13日(周五) 00:07 主题: Re: [williamfzc/stagesepx] 为什么分拣出来的结果会包含其他阶段 (#100) 我尝试过后和提问者遇到的情况类似:使用例子里面的long.mp4,并直接使用stagespex自己生成的第一、第二阶段约40张视频图片进行机器训练,发现最后分类出的结果和实际还是有比较大的差距,有很多不属于该阶段的帧被分进去了。看到回答说要越多越好,想问一下实际落地的时候每阶段要约多少图片数才可以基本保证准确分类呢? 附一下结果跟训练集(截图也可)? — You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe. 你的附件被gitlab拦截了。直接发我邮箱 ([email protected]) 或者在网页端上传才行。 — You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe.
不太明白你的需求是什么,这样看运作其实没什么问题。
模型只会将图片分类到它最符合的类别,即使两个都不像,它也会归类为它认为最接近的那一类。
—
You are receiving this because you commented.
Reply to this email directly, view it on GitHub, or unsubscribe.
|
|
好的,我这边再多做一些尝试,如果落地过程中仍有问题的话QQ联系你~ 感谢~~
原始邮件
发件人: williamfzc<[email protected]>
收件人: williamfzc/stagesepx<[email protected]>
抄送: Ciara<[email protected]>; Comment<[email protected]>
发送时间: 2020年3月15日(周日) 16:19
主题: Re: [williamfzc/stagesepx] 为什么分拣出来的结果会包含其他阶段 (#100)
因为自动化的目标就是尽可能的归到正确的一类,但是我这边实验下来无法由此来计算冷启动时间并落地到项目中,因为偏差实在是太大了。我想问一下你们有使用机器学习落地的经验吗?需要多少图片或者如何训练才能保证基本上模型选择的是精准的呢?
归到正确的一类没问题呀,但是你希望将一个复杂的视频强行压成两个类别这不太现实,效果肯定会很差的。你们的实验是怎么样进行的? 落地的话我们已经在实验室中确认过它的效果,误差与高速相机方案差距很小,并在多个业务落地运行中; 这套方案可能产生误差的地方其实在录制方案上,属于软件录制与硬件录制的误差。而对于阶段分得不对,这种都是有办法可以解决的; 可以QQ联系我沟通,方式在 README 末尾
—
You are receiving this because you commented.
Reply to this email directly, view it on GitHub, or unsubscribe.
|
现象
人工按照如下阶段分拣照片:
0 - 手机桌面
1 - App启动过程中的logo
2 - 闪屏广告
3 - 首页框架出现
4 - 首页完全加载
但是,无论是用
SVMClassifier
还是KerasClassifier
分类器,分拣出来的结果总还包含其他内容,如下面的0阶段(0阶段本来应该只有1~21帧)SVMClassifier分拣结果
KerasClassifier分拣结果
问题
所以想请教一下几个问题,也是使用过程中的几个疑惑:
报告
reporter.zip
Thanks~
The text was updated successfully, but these errors were encountered: