Python 屏幕截图中的细分精度
我试图从Dota2屏幕截图中获取分数信息(忽略边界上的“错误”框) 但我似乎无法获得足够的准确度 我正在对图像应用这些过滤器Python 屏幕截图中的细分精度,python,opencv,tesseract,python-tesseract,Python,Opencv,Tesseract,Python Tesseract,我试图从Dota2屏幕截图中获取分数信息(忽略边界上的“错误”框) 但我似乎无法获得足够的准确度 我正在对图像应用这些过滤器 bw\u image=cv2.按位\u非(img) bw_图像=cv2.CVT颜色(bw_图像,cv2.COLOR_BGR2GRAY) 然后将此配置添加到tesseract config=(“-l eng--oem 1--psm 7”) 在提供的屏幕截图中,ROI被调整为(50,50),但调整大小不会持续影响准确性 如何提高我的成绩?我搜索了如何训练/改进tesse
bw\u image=cv2.按位\u非(img)
bw_图像=cv2.CVT颜色(bw_图像,cv2.COLOR_BGR2GRAY)
然后将此配置添加到tesseract
config=(“-l eng--oem 1--psm 7”)
在提供的屏幕截图中,ROI被调整为(50,50),但调整大小不会持续影响准确性
如何提高我的成绩?我搜索了如何训练/改进tesseract模型,但对于我想要的东西来说似乎需要做很多工作。我记得,
tesseract
是为扫描带有黑色文本的白纸的扫描仪而创建的,而不是为图像创建的。它不知道你是否能训练它-它可能不使用机器学习或神经网络。我找到了关于它的信息,但它似乎需要长时间的工作。也许首先尝试裁剪图像以仅保留有值的区域,并进行更多的图像修改(如更改对比),以便为OCR创建更好的图像。看见