Für die Engineering-Umgebung TwinCat XAE hat Beckhoff einen Chat Client entwickelt. Mit ihm lassen sich die sogenannten Large Language Models (LLMs), wie z. B. ChatGPT von OpenAI, komfortabel für die Entwicklung eines TwinCAT Projekts nutzen. Dies erhöht die Produktivität in der Steuerungsprogrammierung und eröffnet Optimierungspotenzial für den Direkt-Support.
Large Language Models repräsentieren Sprachmodelle, die auf Basis eines neuronalen Netzwerks erstellt und mit einer hohen Anzahl an Texten trainiert wurden. LLMs haben in den vergangenen Jahren eine weite Verbreitung erfahren und werden für unterschiedlichste Aufgaben verwendet, z. B. als Grundlage für Chatbots oder Sprachübersetzungstools.
Der TwinCAT Chat Client automatisiert beispielsweise das Erstellen bzw. Ergänzen von Funktionsbaustein-Code oder die Code-Optimierung, -Dokumentation und -Umstrukturierung (Refacturing). Dieser im TwinCAT XAE implementierte Client stellt eine Verbindung zur Host-Cloud der jeweiligen LLM – z. B. Microsoft AzureTM im Fall von ChatGPT – her, bietet ein User Interface und stellt über das Automation Interface die Kommunikation zur PLC-Entwicklungsumgebung bereit.
„Der Twincat-Chat-Client ermöglicht die Einbindung von KI wie Chat GPT im Rahmen der Programmierung von Steuerungstechnik – der Nutzer bleibt aber zwingend aufgefordert, das Ergebnis zu prüfen“, sagt Johannes Beckhoff, zuständig für die Grundlagenentwicklung bei Beckhoff.
Zur Verfügung steht dies über ein entsprechendes Chat-Fenster in Visual Studio, wobei die LLM-Funktionalität speziell für TwinCAT-3- Nutzer optimiert, d. h. umfangreich um TwinCAT-spezifische Inhalte ergänzt wurde. (eve)
Hier finden Sie mehr über: