RU2823907C1 - Computer-implemented method of automatic control of assembly production - Google Patents
Computer-implemented method of automatic control of assembly production Download PDFInfo
- Publication number
- RU2823907C1 RU2823907C1 RU2023113738A RU2023113738A RU2823907C1 RU 2823907 C1 RU2823907 C1 RU 2823907C1 RU 2023113738 A RU2023113738 A RU 2023113738A RU 2023113738 A RU2023113738 A RU 2023113738A RU 2823907 C1 RU2823907 C1 RU 2823907C1
- Authority
- RU
- Russia
- Prior art keywords
- module
- assembly
- product
- operations
- data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 34
- 238000004519 manufacturing process Methods 0.000 title claims description 12
- 238000001914 filtration Methods 0.000 claims abstract description 5
- 238000012544 monitoring process Methods 0.000 claims abstract description 5
- 238000003909 pattern recognition Methods 0.000 claims abstract description 4
- 238000012800 visualization Methods 0.000 claims description 5
- 238000009825 accumulation Methods 0.000 claims description 3
- 230000015654 memory Effects 0.000 claims description 3
- 230000004807 localization Effects 0.000 claims description 2
- 238000003908 quality control method Methods 0.000 abstract description 2
- 230000001105 regulatory effect Effects 0.000 abstract description 2
- 230000000694 effects Effects 0.000 abstract 1
- 239000000126 substance Substances 0.000 abstract 1
- 230000008569 process Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 235000013601 eggs Nutrition 0.000 description 3
- 235000013305 food Nutrition 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 230000001681 protective effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 235000013550 pizza Nutrition 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
Abstract
Description
Изобретение относится к области вычислительной техники для контроля качества сборочных изделий.The invention relates to the field of computer technology for quality control of assembly products.
В настоящее время существует несколько различных подходов к построению систем автоматизации контроля производственных операций сборки изделий. Большинство из них использует технологии искусственного интеллекта, дополненной, смешанной и виртуальной реальности и функционируют как системы поддержки принятия решений.Currently, there are several different approaches to building automation systems for monitoring production assembly operations. Most of them use artificial intelligence technologies, augmented, mixed and virtual reality and function as decision support systems.
Известна система «OCAR Кабель», способная обеспечить возможность идентификации кабелей и проводов в жгутах с помощью технологий дополненной реальности. Недостатком решения является невозможность его применения для иных изделий и устройств.The OCAR Cable system is known, which can provide the ability to identify cables and wires in bundles using augmented reality technologies. The disadvantage of the solution is that it cannot be used for other products and devices.
Интеллектуальные методы выявления фактов брака и нарушения технологического процесса применяются в пищевой промышленности, например, при детектировании некондиционной продукции в лотке с яйцами (патент RU 2759733). Способ заключается в том, что заполненные яичные лотки на конвейере проходят через систему детектирования, содержащую видеокамеру, соединенную с контроллером технического зрения, который обрабатывает изображение, полученное с видеокамеры, и обнаруживает маркировку на яйцах, факты недовложения в лоток, куски грязи. В пищевой промышленности также может использоваться решение, основанное на патенте RU 2775808 «Нейронные сетевые системы и компьютерно-реализуемые способы идентификации и/или оценки одного или более пищевых изделий в визуальной входной информации». Способ предназначен для обработки видеопотока идентификации и оценки качества производства пиццы. Недостатком обоих методов является ориентация на конкретный заданный набор операций и технических требований, строго ограниченный и неизменный набор операций. Кроме того, в обоих решения используется отличный от предлагаемого технический способ обнаружения недостатков. В первом способе используется детерминированный алгоритм обнаружения, основанный на геометрических признаках объектов. Во втором способе используется один или несколько последовательных детекторов на базе нейронной сети класса CNN.Intelligent methods for detecting defects and process failures are used in the food industry, for example, when detecting substandard products in a tray with eggs (patent RU 2759733). The method consists in the fact that filled egg trays on a conveyor pass through a detection system containing a video camera connected to a machine vision controller that processes the image obtained from the video camera and detects markings on the eggs, facts of under-insertion in the tray, and pieces of dirt. The food industry can also use a solution based on patent RU 2775808 "Neural network systems and computer-implemented methods for identifying and/or assessing one or more food products in visual input information." The method is designed to process a video stream for identifying and assessing the quality of pizza production. The disadvantage of both methods is their focus on a specific set of operations and technical requirements, a strictly limited and unchangeable set of operations. In addition, both solutions use a different technical method of detecting defects from the proposed one. The first method uses a deterministic detection algorithm based on geometric features of objects. The second method uses one or more sequential detectors based on a neural network of the CNN class.
Известен «Программный комплекс контроля ручных операций на основе технологий компьютерного зрения и ИНС» (свидетельство о регистрации №2021614855). Он предназначен для визуальной поддержки ручных операций в процессах сборки/разборки сложных технических изделий и компонентов авиационной техники (включая компоненты бортового радиоэлектронного оборудования, БРЭО), процессах технического обслуживания и ремонта данных изделий и компонентов на основе технологий компьютерного зрения и искусственных нейронных сетей.The "Software package for monitoring manual operations based on computer vision and INS technologies" is known (registration certificate No. 2021614855). It is designed to provide visual support for manual operations in the assembly/disassembly processes of complex technical products and components of aviation equipment (including components of on-board radio-electronic equipment, avionics), processes of maintenance and repair of these products and components based on computer vision technologies and artificial neural networks.
Недостатком данного решения является невозможность его применения для иных технических изделий кроме тех, на которых была обучена система компьютерного зрения. В отличие от предложенного способ является не универсальным, а узкоспециализированным. The disadvantage of this solution is that it cannot be used for other technical products except those on which the computer vision system was trained. Unlike the proposed method, it is not universal, but highly specialized.
Техническая задача, на которое направлено заявленное изобретение, состоит в автоматизации контроля сборочного производства любого типа без привязки к особенностям изделия.The technical task to which the claimed invention is directed is to automate the control of assembly production of any type without reference to the features of the product.
Технический результат состоит в повышении эффективности сборки за счет детектирования ошибок на разных этапах.The technical result consists in increasing the efficiency of assembly by detecting errors at different stages.
Технический результат достигается за счет способа автоматического контроля сборочного производства (см. фиг. 1), согласно которому:The technical result is achieved through a method of automatic control of assembly production (see Fig. 1), according to which:
- подгружается модуль (10) базы данных шаблонных последовательностей операций для успешной сборки деталей,- the module (10) of the database of template sequences of operations for successful assembly of parts is loaded,
- происходит захват изображений с видеокамер с помощью модуля (2),- images are captured from video cameras using the module (2),
- оператором производится выбор типа собираемого изделия с помощью модуля (2) и соответствующей ему предобученной модели машинного зрения,- the operator selects the type of product to be assembled using module (2) and the corresponding pre-trained machine vision model,
- оператором производится размещение на столе деталей изделия в рабочей зоне захвата видеокамеры согласно инструкции сборки;- the operator places the product parts on the table in the working area of the video camera capture according to the assembly instructions;
- происходит распознавание деталей с помощью модуля (3) собираемого изделия на изображениях с камер на основании заранее предобученных моделей машинного зрения;- recognition of parts of the assembled product is carried out using a module (3) in images from cameras based on pre-trained machine vision models;
- с помощью модуля (4) осуществляется фильтрация распознанных данных на основе скользящего окна, размер которого выбирается автоматически на основе скорости распознавания образов, но не менее 4 кадров; - using module (4), filtering of recognized data is performed based on a sliding window, the size of which is selected automatically based on the speed of pattern recognition, but not less than 4 frames;
- с помощью модуля (5) происходит детектирование промежуточного результата сборки изделия с целью определения корректности выполненной операции;- using module (5), the intermediate result of the product assembly is detected in order to determine the correctness of the operation performed;
- с помощью модуля (6) происходит накопление данных о промежуточных операциях;- with the help of module (6) the accumulation of data on intermediate operations occurs;
- с помощью модуля (7) происходит оценивание сборки изделия и завершенности промежуточных операций, при этом проверяются накопленные данные в модуле (6) и данные из модуля (1) о собираемой детали;- with the help of module (7), the assembly of the product and the completion of intermediate operations are assessed, while the accumulated data in module (6) and the data from module (1) about the assembled part are checked;
- происходит формирование сигнала успешной сборки детали, если последовательно накопленные данные совпадают с шаблонными операциями по сборке детали; - a signal of successful assembly of the part is generated if the sequentially accumulated data coincides with the template operations for assembling the part;
- происходит формирование сигнала об ошибочной операции, если цепочка операций в модуле (6) отличается от шаблонной.- a signal about an erroneous operation is generated if the chain of operations in module (6) differs from the template.
Способ автоматического контроля сборочного производства дополнительно включает визуализацию текущего состояния с сборки изделия помощью модуля (8) в графическом виде.The method of automatic control of assembly production additionally includes visualization of the current state of the product assembly using module (8) in graphical form.
Способ автоматического контроля сборочного производства дополнительно включает запись текущего состояния сборки изделия в журнал событий с помощью модуля (9).The method of automatic control of assembly production additionally includes recording the current state of the product assembly in the event log using module (9).
Способ автоматического контроля сборочного производства дополнительно включает отправку данных о сборке во внешние системы с помощью модуля (11).The method of automatic control of assembly production additionally includes sending assembly data to external systems using module (11).
Способ реализован с помощью системы (см. фиг. 1), состоящей из модуля (1) выбора операции на сборку с интерфейсом для пользователя, при этом делается выбор производимой детали до тех пор, пока цикл не будет прерван оператором. Модуль (2) захвата изображений с камер на стенде, установленных над рабочей поверхностью зоны сборки, при этом захват изображений с камер 4k происходит над зоной сборки. Модуль (3) распознавания образов на изображениях с камер с выдачей данных по локализации и классификации объектов на изображениях, при этом угол установки камер выбирается исходя из задачи. Угол по умолчанию 90° (перпендикулярно уровню рабочей поверхности зоны сборки), но может изменяться в некоторых вариантах исходя из технических требований. Модуль (4) фильтрации распознанных данных на основе скользящего временного буфера (скользящего окна), при этом размер буфера выбирается автоматически на основе скорости распознавания образов, но не менее 4 кадров. Образы фильтруются на основе данных по пересечению. Распознанный объект считается существующим, если в буфере на более 50% кадров объект имеет пересечение с аналогичным классом объекта, или считается ложно детектированным если отсутствовал на 50% кадрах или более. Модуль (5) детектирования операции сборки, который формирует событие правильного этапа сборки на основе детектированных образов. Выходом данного модуля являются события о текущей операции на стенде. Модуль (6) – буфер памяти с информацией о ранее накопленных промежуточных операциях на стенде. Модуль (7) оценки состояния (статуса) сборки изделия и завершенности промежуточных операций, который проверяет накопленные данные в модуле (6) и данные из модуля (1) о собираемой детали, формирует сигнал успешной сборки детали, если последовательно накопленные данные совпадают с шаблонными операциями по сборке детали; формирует сигнал об ошибочной операции, если цепочка операций в модуле (6) отличается от шаблонной. Выходной сигнал с данного модуля формирует указание для модуля визуализации для отображения данных на стенде. Также выходной сигнал отправляет данные в систему накопления мониторинговых данных о производственной линии. Модуль (8) – система визуализации и подсказок для оператора стенда. Данный модуль с помощью проектора выводит текстовые и графические сообщения на рабочий стол стенда. Модуль (9) – система накопления статистических данных в журнал событий стенда. Модуль (10) – база данных шаблонных последовательностей операции для успешной сборки деталей. Модуль (11) – экспорт данных во внешние системы (Например, ERP, CRM, SYSLOG или другие).The method is implemented using a system (see Fig. 1) consisting of a module (1) for selecting an assembly operation with an interface for the user, wherein the selection of the manufactured part is made until the cycle is interrupted by the operator. Module (2) for capturing images from cameras on a stand installed above the working surface of the assembly zone, wherein the capture of images from 4k cameras occurs above the assembly zone. Module (3) for recognizing patterns in images from cameras with the output of data on localization and classification of objects in images, wherein the angle of installation of cameras is selected based on the task. The default angle is 90° (perpendicular to the level of the working surface of the assembly zone), but can be changed in some versions based on technical requirements. Module (4) for filtering recognized data based on a sliding time buffer (sliding window), wherein the buffer size is selected automatically based on the speed of pattern recognition, but not less than 4 frames. Patterns are filtered based on intersection data. A recognized object is considered to exist if the object has an intersection with a similar class of object in the buffer for more than 50% of frames, or is considered to be falsely detected if it was absent in 50% of frames or more. Assembly operation detection module (5), which generates an event of a correct assembly stage based on the detected images. The output of this module is events about the current operation on the stand. Module (6) is a memory buffer with information about previously accumulated intermediate operations on the stand. Module (7) for assessing the state (status) of the product assembly and the completeness of intermediate operations, which checks the accumulated data in module (6) and the data from module (1) about the part being assembled, generates a signal of successful part assembly if the sequentially accumulated data coincide with the template operations for part assembly; generates a signal about an erroneous operation if the chain of operations in module (6) differs from the template. The output signal from this module generates an instruction for the visualization module to display data on the stand. The output signal also sends data to the system for accumulating monitoring data about the production line. Module (8) is a visualization and prompting system for the stand operator. This module uses a projector to display text and graphic messages on the stand desktop. Module (9) is a system for accumulating statistical data in the stand event log. Module (10) is a database of template sequences of operations for successful assembly of parts. Module (11) is data export to external systems (for example, ERP, CRM, SYSLOG or others).
За основу примера контроля сборки рассматривается часть ручного процесса сборки велосипедной втулки (далее изделия, объекта сборки), состоящей из 20 различных деталей, приведенных на фиг. 2. Детали имеют малый размер, часть деталей имеет визуальное сходство друг с другом (фиг. 3). The example of assembly control is based on a part of the manual process of assembling a bicycle hub (hereinafter referred to as the product, assembly object), consisting of 20 different parts shown in Fig. 2. The parts are small in size, and some of the parts are visually similar to each other (Fig. 3).
Для выполнения операций автоматизированного контроля сборки в режиме реального времени используется конструкция (фиг. 5), состоящая из следующих элементов: стол, видеокамера (одна или несколько), проектор, осветительные приборы, компьютер, монитор, компьютерный программный код, хранимый в долговременном запоминающем устройстве компьютера. Компьютер и видеокамера, компьютер и проектор соединены коммутационными проводами. To perform automated assembly control operations in real time, a structure (Fig. 5) is used, consisting of the following elements: a table, a video camera (one or more), a projector, lighting devices, a computer, a monitor, and computer program code stored in a long-term memory device of the computer. The computer and video camera, the computer and the projector are connected by switching wires.
В некоторых вариантах компьютер и осветительные приборы также соединены коммутационными проводами. In some embodiments, the computer and lighting fixtures are also connected by patch wires.
В некоторых вариантах компьютер может быть подключен к проводным и/или беспроводным телекоммуникационным сетям как для передачи данных о сборке, так и получении данных (предобученных моделей машинного обучения и/или других).In some embodiments, the computer may be connected to wired and/or wireless telecommunications networks for both transmitting assembly data and receiving data (pre-trained machine learning models and/or others).
Компьютерный программный код, хранимый в этом долговременном запоминающем устройстве, обеспечивает при исполнении одним или более процессорами (в т.ч. графическими процессорами): прием непрерывного видеопотока, по меньшей мере, из одного положения камеры над рабочей зоной (столом), всю нижеописанную последовательность действий по интеллектуальному контролю ручных операций, включая определение (детектирование) деталей в процессе сборки, детектирование операций, детектирование корректности действий оператора на каждом этапе, детектирование корректности действий оператора по сборке всего изделия (объекта сборки).The computer program code stored in this long-term memory device ensures, when executed by one or more processors (including graphic processors): the reception of a continuous video stream, from at least one camera position above the work area (table), the entire sequence of actions described below for intelligent control of manual operations, including the determination (detection) of parts during the assembly process, detection of operations, detection of the correctness of the operator's actions at each stage, detection of the correctness of the operator's actions in assembling the entire product (assembly object).
Информация о статусе и корректности операции отображается на экране монитора и на рабочей зоне сборки. Information about the status and correctness of the operation is displayed on the monitor screen and in the assembly work area.
Кроме того, данные передаются через программный интерфейс во внешние системы для их накопления и последующего анализа. In addition, data is transmitted via a software interface to external systems for accumulation and subsequent analysis.
В некоторых случаях, подключенные внешние системы могут использоваться для голосового (акустического) информирования оператора о событиях (ошибках, успешном окончании этапа, отставании от плана-графика сборки и др.).In some cases, connected external systems can be used to voice (acoustically) inform the operator about events (errors, successful completion of a stage, lagging behind the assembly schedule, etc.).
Преимуществом способа является возможность её использования для различных объектов сборки, разных наборов деталей. Перенастройка компьютерно-реализуемой системы, реализующей предложенный способ, производится путём загрузки новой (или выбора другой, уже загруженной) предобученной модели машинного зрения с использованием методов машинного обучения.The advantage of the method is the possibility of its use for various assembly objects, different sets of parts. Reconfiguration of the computer-implemented system implementing the proposed method is carried out by loading a new (or selecting another, already loaded) pre-trained machine vision model using machine learning methods.
Применение предлагаемого способа может быть реализовано в виде следующей последовательности действий:The application of the proposed method can be implemented in the form of the following sequence of actions:
1. С помощью интерфейса на мониторе оператор выбирает тип собираемого изделия (ПК) и соответствующую ему предобученную модель машинного зрения с использованием методов машинного обучения.1. Using the interface on the monitor, the operator selects the type of product being assembled (PC) and the corresponding pre-trained machine vision model using machine learning methods.
2. Оператор помещает все детали на стол в рабочую зону захвата видеокамеры согласно инструкции сборки (Фиг. 4).2. The operator places all the parts on the table in the working area of the video camera capture according to the assembly instructions (Fig. 4).
3. Оператор ожидает, пока на мониторе не будет отображена информация о подтверждении правильности комплекта деталей на столе и указания, что далее можно приступить к сборке изделия.3. The operator waits until the monitor displays information confirming that the set of parts on the table is correct and indicating that the assembly of the product can then begin.
4. Система путем подсветки нужной детали подсказывает оператору, какую деталь необходимо использовать на данном шаге сборки (например, на 1-м шаге - втулка, на 2-м – винт №1, на 3-м – подшипник №1 и т.д.).4. The system, by highlighting the required part, tells the operator which part needs to be used at a given assembly step (for example, at step 1 - a bushing, at step 2 - screw No. 1, at step 3 - bearing No. 1, etc.).
5. После захвата детали система детектирует корректность ее установки и выдает соответствующее сообщение на мониторе или другим способом.5. After capturing the part, the system detects the correctness of its installation and displays a corresponding message on the monitor or in another way.
6. Система записывает результат п. 5 в журнал событий в постоянную память компьютера.6. The system records the result of point 5 in the event log in the computer’s permanent memory.
7. Система передаёт результат п. 5 во внешние системы посредством сетей связи и телекоммуникационных протоколов.7. The system transmits the result of point 5 to external systems via communication networks and telecommunication protocols.
8. Система оценивает общее состояние процесса сборки изделия.8. The system evaluates the overall state of the product assembly process.
9. Система детектирует использование необходимого инструмента на каждом этапе.9. The system detects the use of the required tool at each stage.
10. Система детектирует использование требуемых правилами техники безопасности средств защиты (перчатки и/или каска и/или защитная одежда и др.)10. The system detects the use of protective equipment required by safety regulations (gloves and/or helmet and/or protective clothing, etc.)
11. Система визуализирует о текущем состоянии сборки изделия в графическом виде (фиг. 6) и записывает текущее состояние в журнал событий. В случае, если сборка изделия не завершена, система переходит к п.4. Если все детали исчерпаны система записывает в журнал событий информацию данные об итоговом результате сборки изделия и переходит к п.2.11. The system visualizes the current state of the product assembly in graphic form (Fig. 6) and records the current state in the event log. If the product assembly is not complete, the system proceeds to point 4. If all parts are exhausted, the system records information about the final result of the product assembly in the event log and proceeds to point 2.
Применение компьютерно-реализуемого способа автоматического контроля сборочного производства позволяет обеспечивать контроль правильности выполнения конечного набора регламентированных операций, выявлять типовые ошибки, допускаемые в ходе выполнения операций, связанных с нарушением последовательности действий, с ошибками выбора компонентов изделия (инструментов, необходимых для сбора-разбора изделия), с неверными (непредусмотренными) действиями, совершаемыми с изделием и др. The use of a computer-implemented method of automatic control of assembly production allows for control over the correct execution of the final set of regulated operations, identification of typical errors made during the execution of operations associated with a violation of the sequence of actions, with errors in the selection of product components (tools required for assembly and disassembly of the product), with incorrect (unintended) actions performed with the product, etc.
Заявленное изобретение разработано в рамках выполнения гранта (договора № 70-2021-00139 от 2.11.2021 г.), а именно:The claimed invention was developed within the framework of the grant (agreement No. 70-2021-00139 dated November 2, 2021), namely:
- относится к направлению развития искусственного интеллекта: «Искусственный интеллект для бизнеса (ИИ для бизнеса)»;- refers to the direction of development of artificial intelligence: “Artificial intelligence for business (AI for business)”;
- относится к мероприятию плана Исследовательского центра в сфере искусственного интеллекта: «Проведение исследований и разработок по созданию автоматических методов построения выборок данных и ускорения моделирования в рамках задач интеллектуального контроля ручных операций»;- refers to the event of the Research Center plan in the field of artificial intelligence: “Conducting research and development to create automatic methods for constructing data samples and accelerating modeling within the framework of tasks of intelligent control of manual operations”;
- относится к тематике Программы Исследовательского центра в сфере искусственного интеллекта: «Интеллектуальная автоматизация ручных операций, распознавание операций на производстве и интеллектуальные методы в промышленной безопасности».- relates to the subject of the Research Center Program in the field of artificial intelligence: "Intelligent automation of manual operations, recognition of operations in production and intelligent methods in industrial safety."
Claims (16)
Publications (1)
Publication Number | Publication Date |
---|---|
RU2823907C1 true RU2823907C1 (en) | 2024-07-30 |
Family
ID=
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180150051A1 (en) * | 2015-06-23 | 2018-05-31 | Canon Kabushiki Kaisha | Control method of robot system, and robot system |
CN108548820A (en) * | 2018-03-28 | 2018-09-18 | 浙江理工大学 | Cosmetics paper labels defect inspection method |
US20190146474A1 (en) * | 2016-05-09 | 2019-05-16 | Strong Force Iot Portfolio 2016, Llc | Methods and systems of industrial production line with self organizing data collectors and neural networks |
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180150051A1 (en) * | 2015-06-23 | 2018-05-31 | Canon Kabushiki Kaisha | Control method of robot system, and robot system |
US20190146474A1 (en) * | 2016-05-09 | 2019-05-16 | Strong Force Iot Portfolio 2016, Llc | Methods and systems of industrial production line with self organizing data collectors and neural networks |
CN108548820A (en) * | 2018-03-28 | 2018-09-18 | 浙江理工大学 | Cosmetics paper labels defect inspection method |
Non-Patent Citations (4)
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113703569B (en) | System and method for virtual reality and augmented reality for industrial automation | |
CN105808416B (en) | A kind of automated testing method and system of man-machine figure interactive interface | |
CN106327605B (en) | A kind of method for inspecting | |
CN111080775A (en) | Server routing inspection method and system based on artificial intelligence | |
EP3482192A1 (en) | System and method for combined automatic and manual inspection | |
JP2009025851A (en) | Work management apparatus and work management method | |
US20220284699A1 (en) | System and method of object detection using ai deep learning models | |
CN112687022A (en) | Intelligent building inspection method and system based on video | |
CN117118781A (en) | Intelligent industrial gateway design method and device | |
CN110989507A (en) | Automatic production digital twin workshop generation device that detects of circuit breaker | |
CN109117526A (en) | One kind being suitable for mechanical system maintenance of equipment and guides data record and analysis system | |
JP2024103539A (en) | Monitoring system | |
CN110232013B (en) | Test method, test device, controller and medium | |
CN109523030B (en) | Telemetering parameter abnormity monitoring system based on machine learning | |
CN114218430A (en) | Remote cooperative equipment operation and maintenance system, method and device | |
CN114995302A (en) | Intelligent control method and system | |
RU2823907C1 (en) | Computer-implemented method of automatic control of assembly production | |
CN113835387A (en) | Operation and maintenance management method, system and medium | |
CN117520184A (en) | Test system for developing computer software | |
CN117109632A (en) | Robot positioning processing system, processing method and electronic equipment | |
CN115562191B (en) | Industrial digital twin-based intelligent presumption analysis method for productivity center | |
CN110520806A (en) | Identification to the deviation engineering modification of programmable logic controller (PLC) | |
CN115393288A (en) | Processing technology control system and method | |
US11320809B2 (en) | Factory management system and control system | |
CN115185792A (en) | Fault hardware processing method, device and system |