Lanzamento do sistema de recoñecemento de textos Tesseract 5.2

Publicouse o lanzamento do sistema de recoñecemento óptico de texto Tesseract 5.2, que admite o recoñecemento de caracteres UTF-8 e textos en máis de 100 idiomas, entre eles ruso, casaco, bielorruso e ucraíno. O resultado pódese gardar en texto plano ou en formatos HTML (hOCR), ALTO (XML), PDF e TSV. O sistema foi orixinalmente creado en 1985-1995 no laboratorio de Hewlett Packard; en 2005, o código abriuse baixo a licenza Apache e foi desenvolvido aínda máis coa participación dos empregados de Google. O código fonte do proxecto distribúese baixo a licenza Apache 2.0.

Tesseract inclúe unha utilidade de consola e a biblioteca libtesseract para incorporar a funcionalidade OCR noutras aplicacións. As interfaces GUI de terceiros que admiten Tesseract inclúen gImageReader, VietOCR e YAGF. Ofrécense dous motores de recoñecemento: un clásico que recoñece texto a nivel de patróns de caracteres individuais, e outro novo baseado no uso dun sistema de aprendizaxe automática baseado nunha rede neuronal recorrente LSTM, optimizada para recoñecer cadeas enteiras e que permite unha aumento significativo da precisión. Publicáronse modelos adestrados preparados para 123 idiomas. Para optimizar o rendemento, ofrécense módulos que utilizan instrucións OpenMP e SIMD AVX2, AVX, AVX512F, NEON ou SSE4.1.

Melloras principais en Tesseract 5.2:

  • Optimizacións engadidas implementadas mediante instrucións Intel AVX512F.
  • A API C implementa unha función para inicializar tesseract cargando un modelo de aprendizaxe automática da memoria.
  • Engadiuse o parámetro invert_threshold, que determina o nivel de inversión das cadeas de texto. O valor predeterminado é 0.7. Para desactivar a inversión, establece o valor en 0.
  • Procesamento mellorado de documentos moi grandes en hosts de 32 bits.
  • Realizouse a transición do uso das funcións std::regex a std::string.
  • Scripts de compilación mellorados para Autotools, CMake e sistemas de integración continua.

    Fonte: opennet.ru

Engadir un comentario