Hop til indhold

Large Language Model (LLM) og generering af Ladder Diagram (LAD)

Dette projekt fokuserer på brugen af LLM til generering af kode, med særligt fokus på anvendelsen af ChatGPT4 til udvikling af LAD kode logik til Siemens PLC'er

Dette projekt fokuserer på brugen af LLM til generering af kode, med særligt fokus på anvendelsen af ChatGPT4 til udvikling af LAD kode logik til Siemens PLC’er. Fire forskellige metoder til generering af LAD kode med en LLM bliver undersøgt, hvoraf én metode har vist sig særligt effektiv, når den understøttes af korrekte prompts og relevante eksempler. Denne metode demonstrerer, hvordan en motorfunktionsblok, baseret på eksisterende data, uploadet til modellen, kan udvide logikken med en tællerfunktion for antal af start og genereres som en færdig funktionsblok i Statement List (STL) der kan konverteres til LAD, der efterfølgende kan importeres direkte i TIA portalen. En anden metode viser et stort potentiale for at skabe en mulig direkte integration mellem ChatGPT og TIA portalen. Dog afslører projektets undersøgelser, at de nuværende syntakser og funktioner i værktøjerne gør denne tilgang udfordrende, og i praksis næsten umuligt.

Projektet udforsker også, hvordan man bedst kan strukturere prompts til en pre-tuned model, især når programkoden kræver specifikke syntakser, som modellen ikke er trænet på. Her anvendes strategier som Chain-of-Thought (CoT) prompting og Few-shot learning i forskellige udviklingsfaser. Opgaverne brydes ned i mindre, håndterbare dele, hvilket gør det muligt at føre en dialogbaseret samtale med ChatGPT under og efter hver fase af kodegenereringen.

Endelig perspektiverer projektet forskellen mellem at anvende en pre-tuned model, som i dette projekt, og en fine-tuned model. Det diskuteres, hvordan fine-tuning kan åbne op for løsninger af mere komplekse opgaver, hvor pre-tuned modeller har sine begrænsninger. Der bliver også perspektiveret til den samfundsmæssige betydning af at anvende en LLM.

Vælg et tema eller søg efter projekter