分享免费的编程资源和教程

网站首页 > 技术教程 正文

图像文本识别(OCR)算法融合界面自动化测试

goqiw 2024-09-17 19:34:06 技术教程 84 ℃ 0 评论

引言

随着信息技术的飞速发展,图形用户界面(GUI)已成为现代软件应用不可或缺的一部分。这些界面不仅为用户提供了直观的操作体验,还承载着丰富的信息展示功能,包括富文本、图像等多种元素。然而,这也给自动化测试带来了新的挑战,尤其是当GUI包含大量动态变化的文本信息时,传统的基于固定元素定位或文本内容的测试方法往往显得力不从心,直接影响到自动化测试运行稳定性。


为了应对这一挑战,图像文本识别(OCR)技术逐渐在软件测试领域崭露头角。OCR技术是一种能够将图像中的文字内容转化为可编辑、可搜索的文本格式的技术。它利用计算机视觉和模式识别的方法,对图像中的文字进行定位、分割和识别,从而实现文字信息的自动提取。


将OCR技术融合到界面自动化测试中,具有显著的优势和潜力。首先,OCR技术可以自动捕捉和识别GUI中的文本信息,无需人工干预即可获取到准确的文本内容、文本定位信息,极大地提高了测试效率和准确性。其次,OCR技术能够处理动态变化的文本信息,使得测试脚本能够更加灵活地应对GUI的变化进行识别和结果校验。



图像文本识别的Python 实现

PaddleOCR 作为一款开源、免费、高效、精准的OCR工具,凭借其多语种支持、高精度、易用性和高效性等特点,在各个领域得到了广泛的应用。随着技术的不断进步和应用需求的日益增长,PaddleOCR将在自动化处理和智能识别领域发挥更大的作用。

接下来,将使用 PaddleOCR 离线模型对下图进行文本识别。

文本识别结果如下图:

代码示例:

示例中 Python 版本及依赖库

# Python 3.10
Pillow==10.4.0
paddleocr==2.8.0
opencv-python==4.10.0.84
paddlepaddle==2.6.1

以下代码为示例代码,首先通过opencv-python 对图像进行预处理,然后使用paddleocr 库识别图像中所有文本信息,输出文本的五点定位坐标、可信度值

#!/usr/bin/env python
# -*- coding: UTF-8 -*-
import os
from PIL import Image
from paddleocr.tools.infer.utility import draw_ocr
from paddleocr import PaddleOCR
import cv2


# 本地模型地址
from config.deployment_config import INFERENCE_MODEL_PATH

def ocr_preprocess(_image_file_path):
    image = cv2.imread(_image_file_path)
    # 将输入图像转为灰度图
    gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
    # 对灰度图使用 Ostu 算法
    ret, th = cv2.threshold(gray, 0, 255, cv2.THRESH_OTSU)
    image_pro = Image.fromarray(cv2.copyMakeBorder(th, 25, 25, 25, 25, cv2.BORDER_CONSTANT, value=[255, 255, 255]))
    image_pro_path = os.path.join(os.path.dirname(_image_file_path), f"tmp_{os.path.basename(_image_file_path)}")
    image_pro.save(image_pro_path)
		
		# 初始化
    ocr = PaddleOCR(
        det_model_dir=os.path.join(INFERENCE_MODEL_PATH, 'det_infer'),
        rec_model_dir=os.path.join(INFERENCE_MODEL_PATH, 'rec_infer'),
        cls_model_dir=os.path.join(INFERENCE_MODEL_PATH, 'cls_infer'),
        use_space_char=True,
        use_angle_cls=True,
        lang="ch", use_gpu=False)

    ocr_result = ocr.ocr(image_pro_path)

    # 图像中标注识别结果
    image = Image.open(image_pro_path).convert('RGB')
    boxes = [line[0] for line in ocr_result[0]]
    txts = [line[1][0] for line in ocr_result[0]]
    scores = [line[1][1] for line in ocr_result[0]]
    ocr_image_result_show = draw_ocr(image, boxes, txts, scores, drop_score=0.8, font_path="simsun.ttc")
    ocr_image_path = os.path.join(os.path.dirname(_image_file_path), f"ocr_{os.path.basename(_image_file_path)}")
    Image.fromarray(ocr_image_result_show).save(ocr_image_path)
    text_cor_coordinate = {}

		# 遍历识别结果,获取坐标、可信度信息
    for line in ocr_result:
        for word_info in line:
            # 获取识别结果的文字信息
            text_info = word_info[1][0]
            # 获取文字的坐标(中心点)
            x1, y1 = word_info[0][0]
            x2, y2 = word_info[0][2]
            target_coords = ((x1 + x2) / 2, (y1 + y2) / 2)
            text_cor_coordinate[text_info] = {
                'left_top': (x1, y2),
                'right_top': (x2, y2),
                'left_bottom': (x1, y1),
                'right_bottom': (x2, y1),
                'center': target_coords,
                'score': word_info[1][1]
            }

    return text_cor_coordinate


if __name__ == '__main__':
    result = ocr_preprocess("WX20240708.png")
    print(result)

输出结果:

{
    "功能性测试质量目标之缺陷探测率O-DDP": {
        "center": [
            492.5,
            161.0
        ],
        "left_bottom": [
            235.0,
            150.0
        ],
        "left_top": [
            235.0,
            172.0
        ],
        "right_bottom": [
            750.0,
            150.0
        ],
        "right_top": [
            750.0,
            172.0
        ],
        "score": 0.9388514757156372
    },
    ...
}
    
    



图像文本识别与UI自动化测试的融合思路

测试执行阶段的融合——获取文本坐标,驱动测试执行。

在使用selenium 进行界面自动化测试时,通常会使用元素定位的方式驱动相关的点击、输入等操作。除此之外,也可以通过传递页面坐标,使用ActionChains 方法实现相关操作的驱动。

  • 首先,通过OCR 识别获取指定文本的坐标位置。
  • 然后,selenium ActionChains 实现操作驱动,驱动后续进行相关键鼠操作。
from selenium import webdriver
from selenium.webdriver.common.action_chains import ActionChains

dr = webdriver.Chrome()
dr.get('http://www.baidu.com')

# 鼠标右键点击
ActionChains(dr)\
  .move_by_offset(200, 300)\
    .context_click()\
      .perform()  

除此之外,除了selenium 的解决方案,OCR识别也可以与pyautogui 进行融合。

  • 首先,通过OCR 识别获取指定文本的坐标位置,
  • 然后,通过pyautogui.moveTo 实现鼠标移动,驱动后续进行相关键鼠操作。如
import pyautogui

def mouse_move_click(x, y, duration=0.25):
    """
    先移动再单击左键
    Args:
        x: x轴坐标
        y: y轴坐标
        duration: 持续时间

    Returns:

    """
    pyautogui.moveTo(x=x, y=y)
    time.sleep(0.5)
    pyautogui.click()



测试校验阶段的融合——获取文本内容,驱动测试校验。

可通过精确、模糊、正则表达式等方式灵活的校验期望结果与识别结果。

特定文本类型的提取,可通过特定规则对OCR识别结果中的内容进行定向提取,再与期望结果进行比对。

可设计文本识别的可信度阈值,只有当识别的结果可信度大于设定阈值时,才会进行后续的相关校验。

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表