<!DOCTYPE article
PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.4 20190208//EN"
       "JATS-journalpublishing1.dtd">
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" article-type="research-article" dtd-version="1.4" xml:lang="en">
 <front>
  <journal-meta>
   <journal-id journal-id-type="publisher-id">Construction production</journal-id>
   <journal-title-group>
    <journal-title xml:lang="en">Construction production</journal-title>
    <trans-title-group xml:lang="ru">
     <trans-title>Строительное производство</trans-title>
    </trans-title-group>
   </journal-title-group>
   <issn publication-format="print">2658-5340</issn>
  </journal-meta>
  <article-meta>
   <article-id pub-id-type="publisher-id">116654</article-id>
   <article-categories>
    <subj-group subj-group-type="toc-heading" xml:lang="ru">
     <subject>Оригинальные статьи</subject>
    </subj-group>
    <subj-group subj-group-type="toc-heading" xml:lang="en">
     <subject>Original articles</subject>
    </subj-group>
    <subj-group>
     <subject>Оригинальные статьи</subject>
    </subj-group>
   </article-categories>
   <title-group>
    <article-title xml:lang="en">Automated system for monitoring equipment placement on a construction site</article-title>
    <trans-title-group xml:lang="ru">
     <trans-title>Система автоматизированного контроля размещения техники на строительной площадке</trans-title>
    </trans-title-group>
   </title-group>
   <contrib-group content-type="authors">
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Рыбакова</surname>
       <given-names>Ангелина Олеговна</given-names>
      </name>
      <name xml:lang="en">
       <surname>Rybakova</surname>
       <given-names>Angelina Olegovna</given-names>
      </name>
     </name-alternatives>
     <email>angelinaribakova@yandex.ru</email>
     <bio xml:lang="ru">
      <p>кандидат технических наук;</p>
     </bio>
     <bio xml:lang="en">
      <p>candidate of technical sciences;</p>
     </bio>
     <xref ref-type="aff" rid="aff-1"/>
    </contrib>
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Коломойченко</surname>
       <given-names>Сергей Алексеевич</given-names>
      </name>
      <name xml:lang="en">
       <surname>Kolomoychenko</surname>
       <given-names>Sergey Alekseevich</given-names>
      </name>
     </name-alternatives>
     <xref ref-type="aff" rid="aff-1"/>
    </contrib>
   </contrib-group>
   <aff-alternatives id="aff-1">
    <aff>
     <institution xml:lang="ru">Московский государственный строительный университет</institution>
    </aff>
    <aff>
     <institution xml:lang="en">Moscow State University of Civil Engineering </institution>
    </aff>
   </aff-alternatives>
   <pub-date publication-format="print" date-type="pub" iso-8601-date="2026-03-31T00:00:00+03:00">
    <day>31</day>
    <month>03</month>
    <year>2026</year>
   </pub-date>
   <pub-date publication-format="electronic" date-type="pub" iso-8601-date="2026-03-31T00:00:00+03:00">
    <day>31</day>
    <month>03</month>
    <year>2026</year>
   </pub-date>
   <elocation-id>CP0050</elocation-id>
   <history>
    <date date-type="received" iso-8601-date="2026-03-08T00:00:00+03:00">
     <day>08</day>
     <month>03</month>
     <year>2026</year>
    </date>
    <date date-type="accepted" iso-8601-date="2026-03-18T00:00:00+03:00">
     <day>18</day>
     <month>03</month>
     <year>2026</year>
    </date>
   </history>
   <self-uri xlink:href="https://riorpub.com/en/nauka/article/116654/view">https://riorpub.com/en/nauka/article/116654/view</self-uri>
   <abstract xml:lang="ru">
    <p>Актуальность исследования обусловлена ростом объёмов строительства и увеличением количества одновременно задействованной техники на строительных площадках, что повышает требования к эффективности контроля соответствия фактического размещения машин и механизмов проектной документации. Традиционный визуальный контроль линейным персоналом является трудоёмким и подверженным влиянию человеческого фактора. Целью исследования является разработка и анализ программной системы автоматизированного контроля размещения строительной техники на строительной площадке на основе методов компьютерного зрения. Для достижения цели решены следующие задачи: выбор архитектуры нейронной сети для детекции строительной техники; формирование обучающей выборки и обучение модели распознавания; разработка алгоритма калибровки перспективы для сопоставления координат стройгенплана и фотографии; реализация программного комплекса с графическим интерфейсом пользователя. Методология исследования включает применение нейросетевой модели YOLO11, обученной на выборке из 750 изображений и распознающей 6 классов строительной техники, а также алгоритм перспективного преобразования координат на основе метода гомографии. В результате разработан программный комплекс, обеспечивающий загрузку стройгенплана и фотографии площадки, разметку зон допустимого размещения техники, автоматическую детекцию объектов и формирование протокола проверки с выявленными нарушениями. Разработанная система позволяет автоматизировать процесс контроля соответствия фактического размещения техники стройгенплану, сократить временные затраты линейного персонала и снизить влияние человеческого фактора при проведении проверок.</p>
   </abstract>
   <trans-abstract xml:lang="en">
    <p>The relevance of the study is driven by the growing volume of construction work and the increasing number of machines and equipment simultaneously operating on construction sites, which raises demands for effective monitoring of compliance between actual equipment placement and project documentation. Traditional visual inspection by line personnel is labour-intensive and susceptible to human error. The aim of the study is to develop and analyse a software system for automated monitoring of construction equipment placement on a construction site using computer vision methods. To achieve this aim, the following objectives were addressed: selection of a neural network architecture for construction equipment detection; formation of a training dataset and training of a recognition model; development of a perspective calibration algorithm for coordinate matching between the construction site plan and photographs; implementation of a software package with a graphical user interface. The research methodology involves the YOLO11 neural network model trained on a dataset of 750 images and capable of recognising 6 classes of construction equipment, as well as a perspective coordinate transformation algorithm based on the homography method. As a result, a software package was developed that enables loading of the construction site plan and site photographs, marking of permissible equipment placement zones, automatic object detection, and generation of an inspection report with identified violations. The developed system automates the process of monitoring compliance of actual equipment placement with the construction site plan, reduces the time costs of line personnel, and minimises the influence of the human factor during inspections.&#13;
Keywords: computer vision; object detection; YOLO; neur</p>
   </trans-abstract>
   <kwd-group xml:lang="ru">
    <kwd>компьютерное зрение</kwd>
    <kwd>детекция объектов</kwd>
    <kwd>YOLO</kwd>
    <kwd>нейронные сети</kwd>
    <kwd>стройгенплан</kwd>
    <kwd>строительная техника</kwd>
   </kwd-group>
   <kwd-group xml:lang="en">
    <kwd>computer vision</kwd>
    <kwd>object detection</kwd>
    <kwd>YOLO</kwd>
    <kwd>neural networks</kwd>
    <kwd>construction site plan</kwd>
    <kwd>construction equipment</kwd>
   </kwd-group>
  </article-meta>
 </front>
 <body>
  <p>ВведениеСтроительная отрасль является одной из ключевых отраслей экономики Российской Федерации. По данным Федеральной службы государственной статистики, объём работ, выполненных по виду экономической деятельности «Строительство», в 2025 году составил 18 815,1 млрд рублей, что почти вдвое превышает показатель 2020 года [1]. Рост объёмов строительства сопровождается увеличением количества одновременно задействованной техники на строительных площадках [2].Эффективное управление строительной площадкой требует чёткой организации размещения техники и контроля соблюдения установленных требований. Основой такой организации выступает стройгенплан. Данный документ является обязательной частью раздела «Проект организации строительства» и определяет расположение строительных машин и механизмов на площадке [3, 4]. Контроль соответствия фактического размещения техники стройгенплану в настоящее время осуществляется визуально линейным персоналом, что требует значительных временных затрат и подвержено влиянию человеческого фактора [5].Развитие технологий компьютерного зрения создаёт предпосылки для автоматизации визуального контроля [6]. Нейронные сети семейства YOLO являются эффективным инструментом для детекции объектов в реальном времени [7-10]. Однако существующие решения [11, 12] направлены на детекцию отдельных объектов и не предусматривают сопоставления результатов с проектной документацией.Целью исследования является анализ предложенной программной системы автоматизированного контроля размещения техники на строительной площадке на основе методов компьютерного зрения.Для достижения цели были решены следующие задачи:Выбрать архитектуру нейронной сети для детекции строительной техники.Сформировать обучающую выборку и обучить модель распознавания.Разработать алгоритм калибровки перспективы для сопоставления координат.Реализовать программный комплекс с графическим интерфейсом.Провести тестирование разработанной системы.Материалы и методыМетодика исследования включает два основных направления: детекцию строительной техники на изображениях с применением нейросетевых алгоритмов и сопоставление результатов детекции с проектной документацией на основе перспективного преобразования координат.В качестве архитектуры нейронной сети выбрана YOLO11 — актуальная версия семейства YOLO, разработанная компанией Ultralytics [13, 14]. Выбор обусловлен высокой скоростью обработки изображений и возможностью детекции объектов в реальном времени. Модель обучена на выборке из 750 изображений строительной техники и распознаёт 6 классов объектов: автокран, башенный кран, трактор, грузовик, самосвал и грузовой автомобиль [15].Для сопоставления координат стройгенплана и фотографии площадки разработан алгоритм калибровки на основе перспективного преобразования [16]. Пользователь отмечает 4 соответствующие точки на стройгенплане и на фотографии, после чего вычисляется матрица преобразования с использованием функции getPerspectiveTransform библиотеки OpenCV [17]. Данная матрица позволяет преобразовывать координаты зон, заданных на плане, в координаты на фотографии.На стройгенплане пользователь выделяет допустимые зоны размещения техники и указывает ожидаемый тип техники для каждой зоны. После детекции объектов на фотографии система определяет координаты нижней точки каждого обнаруженного объекта и проверяет попадание этой точки в одну из заданных зон. Результатом проверки является протокол с указанием выявленных нарушений.Программная реализация выполнена на языке Python [18]. Для детекции объектов применена библиотека Ultralytics, обработка изображений и вычисление матрицы перспективного преобразования реализованы средствами OpenCV [19, 20]. Графический интерфейс построен с использованием библиотеки Tkinter, а корректное отображение кириллического текста на изображениях обеспечено библиотекой Pillow.РезультатыВ результате был разработан программный комплекс с графическим интерфейсом пользователя [21], обеспечивающий автоматизированный контроль размещения техники на строительной площадке.Главное окно программы (рис. 1) состоит из следующих функциональных блоков:• боковая панель управления с кнопками загрузки файлов, настройки зон и экспорта результатов;• информационная панель с отображением количества зон, статуса калибровки и числа нарушений;• область отображения стройгенплана с возможностью выделения зон размещения техники;• область отображения фотографии площадки с результатами детекции;• панель фильтрации классов техники;• область вывода протокола проверки.Рис. 1. Главное окно программного комплекса Для сопоставления координат стройгенплана и фотографии реализовано отдельное окно калибровки (рис. 2). Пользователь последовательно отмечает 4 соответствующие точки на обоих изображениях, после чего система вычисляет матрицу перспективного преобразования.Рис. 2. Окно калибровки перспективы Программа позволяет выделять на стройгенплане прямоугольные зоны допустимого размещения техники (рис. 3). Для каждой зоны указывается название и ожидаемый тип техники.Рис. 3. Разметка зон размещения техники на стройгенплане После анализа система отображает обнаруженные объекты с цветовой индикацией (рис. 4):• зелёный — техника в допустимой зоне, тип соответствует;• оранжевый — техника в зоне, тип не соответствует;• красный — техника вне допустимых зон. Рис. 4. Результаты детекции и проверки размещения техники По результатам анализа формируется протокол (рис. 5), содержащий дату проверки, количество обнаруженной техники, выявленные нарушения и заключение о соответствии размещения стройгенплану.Рис. 5. Пример протокола проверки размещения техники Программа позволяет сохранять изображение с визуализацией детекции и протокол в текстовом формате.Разработанная система позволяет автоматизировать процесс контроля размещения техники на строительной площадке, который традиционно выполняется визуально линейным персоналом. Применение нейросетевой модели YOLO11 обеспечивает детекцию строительной техники на фотографиях в реальном времени, а алгоритм калибровки перспективы позволяет корректно сопоставлять координаты стройгенплана и фотографии при различных углах съёмки.Отличительной особенностью разработанной системы является возможность не только обнаруживать технику на изображении, но и автоматически проверять соответствие её расположения проектной документации. Существующие решения в области компьютерного зрения для строительства [22], как правило, ограничиваются детекцией объектов без сопоставления с проектом.Внедрение системы позволяет сократить временные затраты на контроль размещения техники, снизить влияние человеческого фактора и обеспечить документирование результатов проверки в виде формализованного протокола. Сравнительный анализ традиционного и автоматизированного подходов к контролю размещения техники представлен в таблице 1.Таблица 1Сравнение традиционного и автоматизированного контроля размещения техникиКритерийТрадиционный контрольРазработаннаясистемаПерспективы развитияОбъективность оценкиЗависитот квалификации специалистаЕдиные критерии оценкиИнтеграция с нормативными базами данныхдля проверки соответствия требованиямДокументированиерезультатовРучное заполнение журналовАвтоматическоеформирование протоколаЭкспорт в BIM-системыи цифровой журнал стройкиСопоставлениес проектомВизуальное сравнение с планомАвтоматическоес учётом перспективыАвтоматическое распознавание зонпо чертежу без разметки вручнуюЧеловеческий факторВысокое влияниеМинимальное влияниеФормирование аналитикии статистики нарушений за периодВозможностьанализа динамикиЗатрудненаСохранениеистории проверокИнтеграция с видеонаблюдениемдля непрерывного мониторинга в реальном времени Дальнейшее совершенствование системы может включать расширение обучающей выборки для повышения точности детекции, автоматическое распознавание зон на стройгенплане, интеграцию с системами видеонаблюдения для непрерывного мониторинга [23, 24] и разработку мобильного приложения.ОбсуждениеПолученные результаты подтверждают гипотезу исследования: совместное применение нейросетевой детекции и перспективного преобразования координат действительно позволяет автоматизировать контроль соответствия размещения техники стройгенплану. Система корректно формирует протокол проверки, разграничивая три типа нарушений — технику вне зон, технику не того типа и технику в допустимой зоне, что достаточно для практического применения в условиях линейного контроля.Вместе с тем необходимо обозначить ограничения применимости результатов. Точность детекции зависит от условий съёмки: при плохом освещении, сильном перекрытии объектов или нестандартных ракурсах вероятность ошибки распознавания возрастает [25]. Качество перспективного преобразования определяется точностью ручной разметки четырёх опорных точек — систематическая ошибка при их выборе приводит к смещению всех зон на фотографии. Оба ограничения носят методический характер и не являются принципиальными препятствиями для развития системы.Обобщая, можно констатировать, что предложенный подход демонстрирует принципиальную осуществимость автоматизированного контроля соответствия стройгенплану средствами компьютерного зрения без применения специализированного оборудования. Результаты исследования могут служить основой для разработки более комплексных систем мониторинга строительных площадок, в том числе с интеграцией потоков видеонаблюдения и расширением перечня контролируемых параметров.ЗаключениеВ рамках исследования разработана программная система автоматизированного контроля размещения техники на строительной площадке на основе методов компьютерного зрения. Для детекции строительной техники использована нейросетевая модель YOLO11, обученная распознавать 6 классов объектов. Разработан алгоритм калибровки перспективы, позволяющий сопоставлять координаты стройгенплана и фотографии площадки. Реализован программный комплекс с графическим интерфейсом, обеспечивающий загрузку изображений, разметку зон допустимого размещения техники, автоматическую детекцию объектов и формирование протокола проверки с выявленными нарушениями.Разработанная система позволяет автоматизировать процесс контроля соответствия фактического размещения техники стройгенплану, сократить временные затраты линейного персонала и снизить влияние человеческого фактора. Результаты работы могут быть использованы строительными организациями для повышения эффективности контроля на строительных площадках.</p>
 </body>
 <back>
  <ref-list>
   <ref id="B1">
    <label>1.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Федеральная служба государственной статистики. Объем работ, выполненных по виду экономической деятельности «Строительство» [Электронный ресурс]. — URL: https://rosstat.gov.ru/folder/14458 (дата обращения: 23.02.2026).</mixed-citation>
     <mixed-citation xml:lang="en">Federal'naya sluzhba gosudarstvennoy statistiki. Ob&quot;yom rabot, vypolnennykh po vidu ekonomicheskoy deyatel'nosti «Stroitel'stvo» [Federal State Statistics Service. Volume of work performed by type of economic activity &quot;Construction&quot;] [Electronic resource]. — URL: https://rosstat.gov.ru/folder/14458 (accessed: 23.02.2026).</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B2">
    <label>2.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">СП 48.13330.2019. Организация строительства. СНиП 12-01-2004 : свод правил : издание официальное : утверждён Приказом Министерства строительства и жилищно-коммунального хозяйства Российской Федерации от 24 декабря 2019 г. № 861/пр : введён в действие с 25 июня 2020 г. — Москва : Стандартинформ, 2020. — 24 с.</mixed-citation>
     <mixed-citation xml:lang="en">SP 48.13330.2019. Organizatsiya stroitel'stva. SNiP 12-01-2004 [Organization of construction. SNiP 12-01-2004] : svod pravil : utverzhdën Prikazom Ministerstva stroitel'stva i ZhKKh RF ot 24 dekabrya 2019 g. № 861/pr : vvedën v deystviye s 25 iyunya 2020 g. — Moscow : Standartinform, 2020. — 24 p.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B3">
    <label>3.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Redmon, J. You Only Look Once: Unified, Real-Time Object Detection / J. Redmon, S. Divvala, R. Girshick, A. Farhadi // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). — 2016. — P. 779–788.</mixed-citation>
     <mixed-citation xml:lang="en">Redmon, J. You Only Look Once: Unified, Real-Time Object Detection / J. Redmon, S. Divvala, R. Girshick, A. Farhadi // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). — 2016. — P. 779–788.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B4">
    <label>4.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Ultralytics YOLO11 Documentation [Электронный ресурс]. — URL: https://docs.ultralytics.com/models/yolo11/ (дата обращения: 23.02.2026).</mixed-citation>
     <mixed-citation xml:lang="en">Ultralytics YOLO11 Documentation [Electronic resource]. — URL: https://docs.ultralytics.com/models/yolo11/ (accessed: 23.02.2026).</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B5">
    <label>5.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Bradski, G. The OpenCV Library / G. Bradski // Dr. Dobb's Journal of Software Tools. — 2000. — Vol. 25. — P. 120–125.</mixed-citation>
     <mixed-citation xml:lang="en">Bradski, G. The OpenCV Library / G. Bradski // Dr. Dobb's Journal of Software Tools. — 2000. — Vol. 25. — P. 120–125.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B6">
    <label>6.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Python Software Foundation. Python Language Reference, version 3.12 [Электронный ресурс]. — URL: https://docs.python.org/3/ (дата обращения: 23.02.2026).</mixed-citation>
     <mixed-citation xml:lang="en">Python Software Foundation. Python Language Reference, version 3.12 [Electronic resource]. — URL: https://docs.python.org/3/ (accessed: 23.02.2026).</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B7">
    <label>7.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Bochkovskiy, A. YOLOv4: Optimal Speed and Accuracy of Object Detection / A. Bochkovskiy, C.-Y. Wang, H.-Y. M. Liao // arXiv preprint arXiv:2004.10934. — 2020. — URL: https://arxiv.org/abs/2004.10934 (дата обращения: 23.02.2026).</mixed-citation>
     <mixed-citation xml:lang="en">Bochkovskiy, A. YOLOv4: Optimal Speed and Accuracy of Object Detection / A. Bochkovskiy, C.-Y. Wang, H.-Y. M. Liao // arXiv preprint arXiv:2004.10934. — 2020. — URL: https://arxiv.org/abs/2004.10934 (accessed: 23.02.2026).</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B8">
    <label>8.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Wang, C.-Y. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors / C.-Y. Wang, A. Bochkovskiy, H.-Y. M. Liao // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). — 2023. — P. 7464–7475.</mixed-citation>
     <mixed-citation xml:lang="en">Wang, C.-Y. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors / C.-Y. Wang, A. Bochkovskiy, H.-Y. M. Liao // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). — 2023. — P. 7464–7475.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B9">
    <label>9.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Hartley, R. Multiple View Geometry in Computer Vision / R. Hartley, A. Zisserman. — 2nd ed. — Cambridge : Cambridge University Press, 2004. — 670 p.</mixed-citation>
     <mixed-citation xml:lang="en">Hartley, R. Multiple View Geometry in Computer Vision / R. Hartley, A. Zisserman. — 2nd ed. — Cambridge : Cambridge University Press, 2004. — 670 p.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B10">
    <label>10.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Szeliski, R. Computer Vision: Algorithms and Applications / R. Szeliski. — 2nd ed. — Cham : Springer, 2022. — 925 p.</mixed-citation>
     <mixed-citation xml:lang="en">Szeliski, R. Computer Vision: Algorithms and Applications / R. Szeliski. — 2nd ed. — Cham : Springer, 2022. — 925 p.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B11">
    <label>11.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Jocher, G. Ultralytics YOLO [Электронный ресурс] / G. Jocher, A. Chaurasia, J. Qiu // GitHub. — 2023. — URL: https://github.com/ultralytics/ultralytics (дата обращения: 23.02.2026).</mixed-citation>
     <mixed-citation xml:lang="en">Jocher, G. Ultralytics YOLO [Electronic resource] / G. Jocher, A. Chaurasia, J. Qiu // GitHub. — 2023. — URL: https://github.com/ultralytics/ultralytics (accessed: 23.02.2026).</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B12">
    <label>12.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">LeCun, Y. Deep learning / Y. LeCun, Y. Bengio, G. Hinton // Nature. — 2015. — Vol. 521, № 7553. — P. 436–444.</mixed-citation>
     <mixed-citation xml:lang="en">LeCun, Y. Deep learning / Y. LeCun, Y. Bengio, G. Hinton // Nature. — 2015. — Vol. 521, No. 7553. — P. 436–444.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B13">
    <label>13.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Gonzalez, R. C. Digital Image Processing / R. C. Gonzalez, R. E. Woods. — 4th ed. — New York : Pearson, 2018. — 1168 p.</mixed-citation>
     <mixed-citation xml:lang="en">Gonzalez, R. C. Digital Image Processing / R. C. Gonzalez, R. E. Woods. — 4th ed. — New York : Pearson, 2018. — 1168 p.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B14">
    <label>14.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Жмуров, В. В. Искусственный интеллект и машинное обучение в управлении строительной техникой / В. В. Жмуров, А. Ю. Кобзов, Е. А. Жук // Механики XXI веку. — 2025. — № 24. — С. 85–89.</mixed-citation>
     <mixed-citation xml:lang="en">Zhmurov V. V., Kobzov A. Yu., Zhuk E. A. Iskusstvennyy intellekt i mashinnoye obucheniye v upravlenii stroitel'noy tekhnikoy [Artificial intelligence and machine learning in construction equipment management] // Mekhaniki XXI veku. — 2025. — No. 24. — P. 85–89.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B15">
    <label>15.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Вирясова, В. А. Организация строительной площадки при новом строительстве и реконструкции объектов / В. А. Вирясова, Ю. Ю. Дубровина, С. В. Цыбакин // Актуальные вопросы развития науки и технологий : сборник статей молодых учёных. — Караваево : Костромская ГСХА, 2024. — С. 628–633.</mixed-citation>
     <mixed-citation xml:lang="en">Viryasova V. A., Dubrovina Yu. Yu., Tsybakin S. V. Organizatsiya stroitel'noy ploshchadki pri novom stroitel'stve i rekonstruktsii ob&quot;yektov [Organization of a construction site during new construction and reconstruction of facilities] // Aktual'nyye voprosy razvitiya nauki i tekhnologiy : sbornik statey molodykh uchënykh. — Karavayevo : Kostromskaya GSKhA, 2024. — P. 628–633.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B16">
    <label>16.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Eum, I. Heavy Equipment Detection on Construction Sites Using You Only Look Once (YOLO-Version 10) with Transformer Architectures / I. Eum, J. Kim, S. Wang, J. Kim // Applied Sciences. — 2025. — Vol. 15, № 5. — Art. 2320.</mixed-citation>
     <mixed-citation xml:lang="en">Eum, I. Heavy Equipment Detection on Construction Sites Using You Only Look Once (YOLO-Version 10) with Transformer Architectures / I. Eum, J. Kim, S. Wang, J. Kim // Applied Sciences. — 2025. — Vol. 15, No. 5. — Art. 2320.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B17">
    <label>17.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Feng, R. A YOLO-Based Intelligent Detection Algorithm for Risk Assessment of Construction Sites / R. Feng, Y. Miao, J. Zheng // Journal of Intelligent Construction. — 2024. — Vol. 2, № 4. — P. 1–18.</mixed-citation>
     <mixed-citation xml:lang="en">Feng, R. A YOLO-Based Intelligent Detection Algorithm for Risk Assessment of Construction Sites / R. Feng, Y. Miao, J. Zheng // Journal of Intelligent Construction. — 2024. — Vol. 2, No. 4. — P. 1–18.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B18">
    <label>18.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Xu, Y. Machine learning in construction: From shallow to deep learning / Y. Xu, Y. Zhou, P. Sekula, L. Ding // Developments in the Built Environment. — 2021. — Vol. 6. — Art. 100045.</mixed-citation>
     <mixed-citation xml:lang="en">Xu, Y. Machine learning in construction: From shallow to deep learning / Y. Xu, Y. Zhou, P. Sekula, L. Ding // Developments in the Built Environment. — 2021. — Vol. 6. — Art. 100045.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B19">
    <label>19.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Delgado, J. M. D. Deep learning with small datasets: using autoencoders to address limited datasets in construction management / J. M. D. Delgado, L. Oyedele // Applied Soft Computing. — 2021. — Vol. 112. — Art. 107836.</mixed-citation>
     <mixed-citation xml:lang="en">Delgado, J. M. D. Deep learning with small datasets: using autoencoders to address limited datasets in construction management / J. M. D. Delgado, L. Oyedele // Applied Soft Computing. — 2021. — Vol. 112. — Art. 107836.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B20">
    <label>20.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Géron, A. Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow / A. Géron. — 2nd ed. — Sebastopol : O'Reilly Media, 2019. — 856 p.</mixed-citation>
     <mixed-citation xml:lang="en">Géron, A. Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow / A. Géron. — 2nd ed. — Sebastopol : O'Reilly Media, 2019. — 856 p.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B21">
    <label>21.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Котов, Н. В. Разработка и исследование нейросетевых алгоритмов для систем видеоаналитики на строительных площадках / Н. В. Котов, А. Е. Назаровский, В. В. Хрящев // Цифровая обработка сигналов и её применение (ЦОС-2021) : доклады 23-ей Международной конференции. — Москва : РНТОРЭС им. А. С. Попова, 2021. — С. 194–197.</mixed-citation>
     <mixed-citation xml:lang="en">Kotov N. V., Nazarovskiy A. E., Khryashchëv V. V. Razrabotka i issledovaniye neyrosetevykh algoritmov dlya sistem videoanalitiki na stroitel'nykh ploshchadkakh [Development and research of neural network algorithms for video analytics systems at construction sites] // Tsifrovaya obrabotka signalov i yeyo primeneniye (TsOS-2021) : doklady 23-y Mezhdunarodnoy konferentsii. — Moscow : RNTORES im. A. S. Popova, 2021. — P. 194–197.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B22">
    <label>22.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Fang, W. Computer vision applications in construction safety assurance / W. Fang, L. Ding, B. Zhong, P. E. D. Love, H. Luo // Automation in Construction. — 2024. — Vol. 159. — Art. 105235.</mixed-citation>
     <mixed-citation xml:lang="en">Fang, W. Computer vision applications in construction safety assurance / W. Fang, L. Ding, B. Zhong, P. E. D. Love, H. Luo // Automation in Construction. — 2024. — Vol. 159. — Art. 105235.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B23">
    <label>23.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Галиева, А. Р. Научно-техническое исследование влияния цифровых технологий на эффективность строительного производства / А. Р. Галиева // Наука и бизнес: пути развития. — 2020. — № 11(113). — С. 49–53.</mixed-citation>
     <mixed-citation xml:lang="en">Galiyeva A. R. Nauchno-tekhnicheskoye issledovaniye vliyaniya tsifrovykh tekhnologiy na effektivnost' stroitel'nogo proizvodstva [Scientific and technical research of the impact of digital technologies on the efficiency of construction production] // Nauka i biznes: puti razvitiya. — 2020. — No. 11(113). — P. 49–53.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B24">
    <label>24.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Епанчинцев, Т. С. Влияние человеческого фактора на качество строительства: методы минимизации ошибок / Т. С. Епанчинцев, В. А. Бычков, И. Е. Семенко // Современная экономика: актуальные вопросы, достижения и инновации : сборник статей II Международной научно-практической конференции. — Пенза : Наука и Просвещение, 2025. — С. 8–11.</mixed-citation>
     <mixed-citation xml:lang="en">Epanchintsev T. S., Bychkov V. A., Semenko I. E. Vliyaniye chelovecheskogo faktora na kachestvo stroitel'stva: metody minimizatsii oshibok [The influence of the human factor on the quality of construction: methods of minimizing errors] // Sovremennaya ekonomika: aktual'nyye voprosy, dostizheniya i innovatsii : sbornik statey II Mezhdunarodnoy nauchno-prakticheskoy konferentsii. — Penza : Nauka i Prosveshcheniye, 2025. — P. 8–11.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B25">
    <label>25.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Bahtyyarova, Sh. Human-computer interaction: user experience (UX) design, interface design, and interaction technologies / Sh. Bahtyyarova, J. Shohradova // Матрица научного познания. — 2024. — № 10-2. — С. 24–27.</mixed-citation>
     <mixed-citation xml:lang="en">Bahtyyarova, Sh. Human-computer interaction: user experience (UX) design, interface design, and interaction technologies / Sh. Bahtyyarova, J. Shohradova // Matrix of Scientific Knowledge. — 2024. — No. 10-2. — P. 24–27.</mixed-citation>
    </citation-alternatives>
   </ref>
  </ref-list>
 </back>
</article>
