Home » Nyheder » HighByte Intelligence Hub 4.2
Nyhed, Produktopdatering

HighByte Intelligence Hub 4.2

En ny version af DataOps-platformen HighByte Intelligence Hub er tilgængelig! HighByte fortsætter arbejdet med industriel AI, og Intelligence Hub 4.2 kommer med nye værktøjer til både OT- og IT-teams til brug af kunstig intelligens på fabriks­gulvet.

Nøglefunktioner i HighByte Intelligence Hub 4.2

DataOps driver AI: Industrial MCP Server

MCP er hurtigt ved at blive standarden for at gøre det muligt for Large Language Models (LLMs) og agentisk AI at interagere med data. MCP-serveren i version 4.2 giver brugerne mulighed for at bygge egne værktøjer, der eksponerer industridata for AI. For eksempel kan man oprette et værktøj kaldet “CreateMaintenanceWorkOrder”, som en AI-agent kan kalde, når den vurderer, at en maskine har brug for vedligehold. Ved hjælp af en pipeline kan værktøjet validere AI-agentens input, oprette en arbejdsordre i Maximo eller MaintainX og derefter sende svar tilbage til agenten.

AI-assisteret DataOps: Amazon Bedrock og OpenAI-forbindelser

Agentisk AI har brug for kontekst. Tallet “98,8” betyder intet for en LLM. Men en temperatursensor på en kedel, der er aktiv i område 6 af fabrikken? Det kan AI arbejde med. At tilføje kontekst til data i et eksisterende industrimiljø kan dog være en stor opgave.

I version 4.2 tilføjes AI-forbindelser til Amazon Bedrock, Azure OpenAI, Google Gemini og OpenAI samt mulighed for at forbinde til lokale LLM’er for at hjælpe med at tilføje kontekst. For eksempel kan brugere modellere en maskine fra et OPC UA-adresserum og derefter give dette til LLM’en sammen med resten af OPC UA-serverens adresserum. Herefter kan LLM’en hjælpe med at finde og modellere andre maskiner af samme type.

Git Integration

Git er det mest udbredte versionsstyringssystem og bruges ofte af DevOps-værktøjer til at håndtere versions- og deploymentskonfiguration samt scripts. Intelligence Hub version 4.2 tilføjer support for automatisk backup og deployment af en Intelligence Hub-instans fra ét eller flere Git-repositorier, hvilket strømliner DevOps-workflows. Ved deployment understøtter hubben indhentning af et eller flere repositories, sammensmeltning og igangsætning af konfigurationen. Dette gør det muligt at lave mixed deployments, der både indeholder fælles enterprise-konfiguration (f.eks. modeller, pipelines) og lokal site-konfiguration (f.eks. instanser, fabriksforbindelser).

OpenTelemetry

OpenTelemetry (OTel) giver en standardiseret grænseflade til at overvåge en applikations sundhed via system- og applikations­metrics. Det understøttes af mange IT-baserede overvågningsværktøjer som Dynatrace, Datadog, Honeycomb, Splunk, AWS CloudWatch, Azure Monitor, Prometheus og flere. Med OpenTelemetry-support gør Intelligence Hub nu system­metrics som CPU og hukommelse – samt applikations­metrics som pipeline- og forbindelsesydelse – let tilgængelige for alle disse værktøjer.

TimescaleDB

TimescaleDB (drevet af TigerData) er en førende tidsseriedatabase designet til effektiv lagring, forespørgsel og analyse af tidsstemplede data. Den er bygget på PostgreSQL, hvilket gør den velkendt for relationsdata og nem at lære for tidsseriedata. HighByte Intelligence Hub version 4.2 introducerer en ny forbindelse til TimescaleDB. Forbindelsens outputs giver mulighed for at oprette hypertables til tidsseriedata som asset-telemetri og sensordata, samt standardtabeller til relationsdata som lokations-id’er, asset-metadata, MES-transaktioner og QMS-resultater.

Databricks

Databricks er en populær enterprise-dataplatform til data science, analyse, AI/ML og lakehouses. Brugere af HighByte Intelligence Hub har tidligere integreret med Databricks via Auto Loader eller Structured Streaming, som abonnerer på cloud object storage (f.eks. Amazon S3, Azure Blob Storage) eller streamingtjenester (f.eks. Kafka, Amazon Kinesis, Azure Event Hubs) for at hente data.
I version 4.2 introducerer Intelligence Hub en ny dedikeret Databricks-forbindelse. Databricks Storage Connector publicerer optimerede, klar-til-brug data i parquet-format til den underliggende lagringstjeneste og registrerer indholdet i Databricks Unity Catalog. Det gør det muligt for brugere dynamisk at drive deres lakehouse-skema fra deres operationer og straks opdage og anvende deres industridata.

Yderligere funktioner

Forbedret parametertilpasning og brugeroplevelse
Kan du huske syntaksen {{Connection.opc.tag(address={{this.address}})}}? Glem den.

Version 4.2 forbedrer i høj grad oplevelsen med parameterisering af inputs, instanser og pipelines.


Brugerfladen genkender nu de parametre, en kilde understøtter, og giver brugeren mulighed for nemt at konfigurere parametrene uden at kende syntaksen. Parametre og skabeloner er også blevet adskilt i brugerfladen.

Pipelines

API Trigger vs. Callable Trigger
Pipelines kan nu eksponeres via REST API og MCP Server gennem en eksplicit API Trigger, hvilket gør det lettere at styre og definere et rent API. Den nye Callable Trigger markerer en pipeline som en kaldbar under-pipeline eller subrutine.

Pipeline Replay
Brugerfladen til Pipeline Replay er blevet opdateret og har nu den samme side-om-side hændelsessammenligning, som bruges i Pipeline Debug.

Pipeline-fejlhåndtering
Pipelines understøtter nu en “Error Handler”, som er en pipeline, der kan bruges til at behandle fejl fra den overordnede pipeline. Dette gør det muligt at oprette en enkelt fejlhåndteringspipeline, der kan behandle alle pipelinefejl og give besked til IT eller andre supportteams om problemer.

Ny Pipeline Read Stage
Der er tilføjet en ny, forenklet Pipeline Read stage, der gør det muligt at læse en enkelt kilde og fortsætte behandlingen med læseresultatet. Den eksisterende Read stage er blevet omdøbt til Merge Read og understøtter læsning fra én eller flere kilder samt sammensmeltning af resultaterne.

Tilføjet persistens til Pipeline On Change Stage
Pipeline On Change stage har nu en mulighed for at aktivere persistens, så den husker den seneste hændelsesværdi mellem kørsler og genstarter.

Forbindelser

Oracle CDC
Change Data Capture (CDC)-understøttelse er blevet tilføjet til Oracle Database-forbindelsen.

Snowflake SQL Outputs
Snowflake SQL-forbindelsen understøtter nu outputs, herunder Insert, Upsert og Update-kommandoer, hvilket gør det lettere at udføre SQL-lignende operationer på data i Snowflake.

Amazon S3
Amazon S3-forbindelsen understøtter nu en List input-type til at se tilgængelige filer samt en Read-type til at læse filer fra S3-lagring.

Flere indlæg