Искусственный интеллект и машинное обучение
Научная статья
ББК 32.813.5: 32.973.202-018.2
ГРНТИ 28.23.15
DOI 10.25209/2079-3316-2024-15-1-3-30
Распознавание кадастровых координат с использованием свёрточно-рекуррентных нейронных сетей
Игорь Викторович Винокуров
Финансовый Университет при Правительстве Российской Федерации, Москва, Россия | |
igvvinokurov@fa.ru |
Аннотация. В статье исследуется применение свёрточно-рекуррентных нейронных сетей (CRNN) для распознавания изображений кадастровых координат объектов на отсканированных документах ППК «Роскадастр». Комбинированная архитектура CRNN, объединяющая свёрточные нейронные сети (CNN) и рекуррентные нейронные сети (RNN), позволяет использовать преимущества каждой из них для обработки изображений и распознавания содержащихся в них непрерывных цифровых последовательностей. При проведении экспериментальных исследований были формированы изображения, состоящие из заданного количества цифр, построена и исследована CRNN модель. Формирование изображений цифровых последовательностей заключалось в предобработке и конкатенации изображений образующих их цифр из собственного набора данных. Анализ значений функции потерь и метрик Accuracy, Character Error Rate (CER) и Word Error Rate (WER) показал, что использование предложенной CRNN модели позволяет достичь высокой точности распознавания кадастровых координат на их отсканированных изображениях. (Связанные тексты статьи на русском и на английском языках).
Ключевые слова: свёрточно-рекуррентная нейронная сеть, CRNN, распознавание изображений, цифровые последовательности, глубокое обучение, Keras, Python
Для цитирования: Винокуров И. В. Распознавание кадастровых координат с использованием свёрточно-рекуррентных нейронных сетей // Программные системы: теория и приложения. 2024. Т. 15. № 1. С. 3–30. (Рус., англ.). https://psta.psiras.ru/2024/1_3-30.
Полный текст двуязычной статьи (PDF): https://psta.psiras.ru/read/psta2024_1_3-30.pdf (клик по флажку в верхнем колонитуле переключает язык страницы).
Статья поступила в редакцию 29.09.2023; одобрена после рецензирования 27.11.2023; принята к публикации 27.11.2023; опубликована онлайн 11.03.2024.