Custom-bouw op dredge-data, fleet-management, ECDIS en ERP — voor baggerbedrijven, scheepswerven en maritieme toeleveranciers in Sliedrecht, Papendrecht, Kinderdijk en de rest van de Drechtsteden

Sliedrecht draagt niet voor niets de bijnaam baggerhoofdstad van Nederland. De gemeente ligt in het hart van de Drechtsteden, de regionale samenwerking tussen Dordrecht, Sliedrecht, Papendrecht, Zwijndrecht, Hendrik-Ido-Ambacht en Alblasserdam die samen een van de dichtste maritiem-industriele clusters van Europa vormen. Binnen een straal van vijftien kilometer zitten Boskalis (hoofdkantoor Papendrecht), veel activiteit van Van Oord aan de Oude Maas, Royal IHC in Kinderdijk en tientallen middelgrote werven, engineeringsbureaus en toeleveranciers. Die concentratie levert een uniek data-probleem op: elk bedrijf werkt met een andere combinatie van dredge-management-systemen, fleet-management-software, CAD/PLM-tools, onderhoudsplatformen en ERP — vaak met jarenlange historie, custom schemata en diepe project-IP die niet zomaar in een SaaS-bak past. AI software op maat is daarom geen hype, maar een praktische bouwlaag om deze bedrijfskritische data-eilanden te verbinden zonder de controle op te geven.
Wat wij bij CleverTech onder AI software op maat verstaan is fundamenteel anders dan AI agents — autonome workflows bovenop bestaande systemen — en breder dan pure dashboard-oplossingen. AI software voor de waterbouw is custom-bouw: native applicaties, microservices en integratielagen die ontworpen zijn rondom de specifieke datastromen van een bagger-, offshore- of engineering-bedrijf. Voor een familiebedrijf in Sliedrecht dat werkt met een eigen dredge-fleet betekent dat bijvoorbeeld een applicatie die bathymetrie-metingen, productiedata van de baggermolens en treibstofverbruik aggregeert en daaruit project-marge-indicaties destilleert terwijl een job nog loopt. Voor een scheepswerf in Kinderdijk kan het een AI-co-pilot zijn die offertes en bestekken tegen een eigen kennisbank van eerdere projecten valideert. Voor een toeleverancier van high-end pompen en kleppen is het vaak een predictive-maintenance-applicatie die sensor-data van klanten wereldwijd verwerkt en terugkoppelt naar service en engineering.
Waterbouw-data als eerste bouwsteen. De baggersector is van oudsher datarijk. Elke trailing suction hopper dredger, cutter suction dredger of backhoe produceert per werkdag honderden megabytes aan operationele data: posities (GPS, DGPS, RTK), baggerdiepte, sedimentsamenstelling, pompdrukken, motorbelasting, brandstofverbruik en emissies. Daarnaast is er omgevingsdata — bathymetrie, getij, stroming, meteo — die voor elke locatie opnieuw gemodelleerd wordt. Tegelijkertijd genereert elk contract een paralleluniversum aan commerciele en juridische data: bestek-specificaties, volumes, toleranties, milieuvoorwaarden en boetes bij afwijking. Custom software voor de waterbouw moet deze drie lagen — operationeel, omgeving, commercieel — samenbrengen in een domein-model dat bruikbaar is voor project-controllers en engineers. Off-the-shelf dredge-management-software zoals die van specialistische leveranciers dekt typisch 60-70% van de use-cases; de laatste 30% is precies daar waar bedrijven het verschil maken in marge en innovatie. Die laatste 30% is het domein van custom AI software.
Het integratielandschap: ECDIS, fleet-management, CMMS en ERP. Een middelgroot baggerbedrijf of offshore-contractor in de Drechtsteden werkt doorgaans met vier tot zes kritieke systeem-families. Aan boord draait ECDIS (Electronic Chart Display and Information System) voor elektronische zeekaarten, vaak van leveranciers als Kongsberg Maritime of Wartsila met eigen integratie-interfaces richting voyage-planning en dynamic positioning. Fleet-management-software koppelt de vloot-brede operationele data en onderhoudsplanningen; oplossingen als Kongsberg Vessel Insight of Wartsila Fleet Operations Solution bieden eigen APIs, maar elke operator heeft daarboven een eigen datamodel. Onderhoud en reserve-onderdelen lopen via een CMMS (Computerized Maintenance Management System) — klassiekers zijn IBM Maximo, Ultimo, IFS Maintenix en in de nichemarkt ook eigen-bouw-systemen. ERP-stacks zijn sector-afhankelijk: SAP S/4HANA bij de grotere spelers en IFS Cloud bij veel maritieme en engineering-bedrijven die projectmatig werken. Boven op dat alles hangen project-specifieke tools: CAD en PLM (Siemens NX, Autodesk Inventor, Dassault ENOVIA), kwaliteits-modules, veiligheidsmanagement en HSE-registraties.
Elk van deze systemen heeft een ander volwassenheidsniveau als het op APIs aankomt. ECDIS-systemen praten traditioneel via NMEA 0183 en het modernere NMEA 2000 over boord-netwerken; naar wal gaat data vaak als CSV-exports, SFTP-batches of custom MQTT-streams. SAP en IFS kennen goede, maar gelaagde APIs — IDocs en BAPIs naast OData en REST — en wat het voor de maritieme sector extra complex maakt, is dat datavelden niet standaard branche-breed gemapped zijn. Een hopper-load in het ene dredge-management-systeem heet anders dan in het andere; een werkorder in IFS heeft andere verplichte velden dan een werkorder in Maximo. Custom AI software moet daarom niet alleen verbinden, maar ook een abstractie-laag bieden die domein-taal consistent houdt over bronnen heen. Zonder die laag wordt elke nieuwe analyse-vraag weer een handmatige puzzel.
Dredge-data-pipelines en sensor-analytics. Een van de meest gevraagde custom-software-toepassingen in Sliedrechtse bedrijven is het bouwen van een dredge-data-pipeline die ruwe sensor-metingen van baggerschepen automatisch normaliseert, opslaat en analyseert. De uitdaging: een hopper-dredger kan tientallen sensoren tegelijk leveren met samplingfrequenties van 1 Hz tot 100 Hz. Dat is niet extreem in industriele zin, maar de combinatie met GPS-tracks van meerdere millimeter-precisie (RTK-GNSS), meerdere samenhangende productie-maten (solid throughput, liquid throughput, mixture density, pump suction en discharge) en lange transmissie-ketens (vaak satellietverbinding met ongeregeld beschikbaarheid) maakt het vak-specifiek. Wij bouwen dergelijke pipelines typisch op een event-gedreven architectuur: Apache Kafka of Azure Event Hubs voor real-time-instroom, een data-lake (Delta Lake of vergelijkbaar) als primair archief, en time-series-databases zoals TimescaleDB of InfluxDB voor snelle queries op operationele data. AI-componenten draaien daarboven: afwijking-detectie op productiepatronen, automatische classificatie van sediment-types op basis van sensor-signaturen en voorspelmodellen voor productie-output onder verschillende meteo- en bodemcondities. Voor familiebedrijven die nog werken met CSV-exports uit een oudere dredge-management-suite bouwen we eerst een ingestion-laag die die exports parseert en validert — pragmatisch, zonder direct alles on-line te willen hebben.
Fleet-management en routeoptimalisatie. Zodra de operationele data gestructureerd binnenkomt, wordt routeoptimalisatie en fleet-assignment een kansrijke toepassing. Voor baggerbedrijven met meerdere schepen die parallel verschillende contracten bedienen is de klassieke optimalisatievraag: welk schip op welk contract, met welke voorbereiding, gegeven onderhoudsvensters, beschikbare bemanning en weerverwachting. Dit is een gemengd integer-programmeringsprobleem met AI-laag daarbovenop — machine-learning-modellen die historische productie-patronen combineren met actuele weerdata (KNMI-API, marine weather services) om risico-adjusted projectvoorspellingen te doen. Voor maritieme contractors die werken met Kongsberg of Wartsila fleet-suites bouwen we een integratielaag die via vendor-APIs operationele events inleest en lokale beslislogica toepast zonder dat de core-suite vervangen hoeft te worden. Dit is tegelijk een sterk argument voor custom-bouw: een generieke fleet-optimizer kent jouw bestek-boetes niet, jouw specifieke sediment-types niet en jouw interne bemanning-planningsregels niet.
Predictive maintenance op baggermolens en scheepsequipment. De waterbouw is onverbiddelijk tegenover materieel: pompen, pijpleidingen, molens en zwaaibuizen staan constant onder hoge belasting in een abrasief milieu. Ongeplande stilstand op een groot project kan oplopen tot zes-tot-zeven-cijferige dagschades. Wij bouwen custom predictive-maintenance-applicaties die sensor-data van kritieke componenten continu monitoren — trillingen, temperaturen, oliedrukken, elektrische opname — en vroege waarschuwingen afgeven voordat incidenten tot stilstand leiden. Integratie-patronen: sensor-feeds via MQTT of OPC UA, ETL naar time-series-database, features engineering voor conditie-indicatoren, ML-modellen (often gradient-boosting en LSTM-variant) die anomalieen detecteren en (Remaining Useful Life) schatten, en koppeling met CMMS (Ultimo, IFS Maintenix, Maximo) voor automatische werkorder-creatie. Dit levert typisch 20-35% reductie in ongeplande downtime op na een jaar inregelen en optimaliseert onderhoudsvensters tegen de projectplanning. De samenwerking tussen TU Delft en industrie op offshore- en maritime-engineering is een relevant kennis-ecosysteem voor dit soort applicaties; wij haken aan bij open standaarden en peer-reviewed methoden waar dat kan.
Bestek- en contract-analyse met AI-co-pilots. Baggerbedrijven en scheepswerven in de Drechtsteden besteden veel tijd aan offerte- en bestek-analyse. Een typisch waterbouw-bestek is honderden pagina's, met verwijzingen naar STABU--specificaties, milieuvoorwaarden (Natura 2000, stikstofregels), veiligheidsbepalingen en contract-sancties. Traditioneel pluist een werkvoorbereider elk bestek handmatig door op afwijkingen ten opzichte van standaard-aannames. Wij bouwen custom AI-co-pilots die getraind zijn op de eigen bestek-bibliotheek en historische projectdata: de co-pilot extraheert risico's, vergelijkt specificaties met een interne project-kennisbank en stelt vragen op voor de werkvoorbereiding. Dit is geen open ChatGPT-achtige chat, maar een gecontroleerde applicatie met retrieval-augmented generation, role-based access, audit-trails en optioneel on-premise LLM-hosting voor IP-gevoelige content. Voor familiebedrijven die hun project-IP als kernactief zien, is die controle geen luxe maar een voorwaarde.
IP-bescherming en sovereign EU-hosting. De Drechtsteden herbergen enkele van de meest innovatieve waterbouw-bedrijven ter wereld, met tientallen jaren opgebouwd intellectueel eigendom in de vorm van ontwerpen van baggermolens, dynamic-positioning-algoritmes, werkwijzen voor bijzondere opdrachten en commerciele data over projecten. Dat IP moet onder alle omstandigheden binnen EU-jurisdictie blijven en liefst binnen een controleerbare perimeter. Wij deployen custom AI software standaard op EU-only infrastructuur: Azure West Europe (Amsterdam-regio), AWS Frankfurt of eigen on-premise/private-cloud-setups op Kubernetes. AI-modellen die op gevoelige ontwerp- of contract-data werken draaien waar mogelijk op EU-gehoste open-source LLMs (Llama 3-varianten, Mistral) in plaats van op US-hyperscaler APIs. Encryption-keys zijn via bring-your-own-key onder klant-controle; audit-logs gaan naar immutable storage (Azure Immutable Blob of S3 Object Lock). Deze architectuur matcht ook de verplichtingen die voortvloeien uit de EU AI Act voor bedrijven die AI-toepassingen inzetten die onder de 'limited risk' of 'high risk' categorie kunnen vallen, en de bestaande GDPR-eisen die Autoriteit Persoonsgegevens handhaaft.
Familiebedrijf-pragmatisme en Drechtsteden-nabijheid. Het Sliedrechtse ondernemers-DNA is anders dan dat van een corporate stack in de Randstad. Veel bedrijven zijn familiebedrijven in de tweede of derde generatie, met een cultuur van directe beslissingen, korte lijnen en pragmatische technologiekeuzes. Dat betekent in de praktijk: liever een werkende eerste versie in acht weken dan een perfect architectuurdocument in acht maanden; liever een integratie die 80% dekt en iteratief groeit dan een big-bang-implementatie met cut-over-risico. Wij werken in die ritme: discovery en een werkend MVP in 6-10 weken, daarna kwartaal-ritme voor uitbreidingen. Fysiek langskomen op de werf of het werkschip is onderdeel van de aanpak — de afstand tussen onze werkplek en de Drechtsteden is kort genoeg dat we regelmatig aan boord of in de productieruimte kunnen meekijken. Dat is voor deze sector niet-onderhandelbaar: zonder de operationele realiteit te kennen kun je geen custom software bouwen die op de werf ook echt gebruikt wordt.
Use-case 1: dredge-project cockpit. Een baggerbedrijf in de Drechtsteden werkt met een TSHD-vloot die tegelijk op meerdere contracten draait. Standaard dredge-management-software registreert wel de productie, maar het real-time overzicht over contracten heen (welk schip, welk contract, wat is de marge-status, welke risico's lopen vooruit op de planning) is fragmentarisch. Wij bouwen een custom operations-cockpit die data uit het dredge-management-systeem, het fleet-management-platform, het ERP (SAP of IFS) en weather-services aggregeert tot een samenhangend beeld. AI-laag doet early-warning op margin-risico en produceert bestekreview-rapporten per contract. Bouwtijd typisch 10-14 weken tot eerste release, iteratieve uitbreiding daarna.
Use-case 2: werfmanagement-applicatie voor scheepsbouw. Een middelgrote werf of toeleverancier aan Royal IHC-schaal werkt met engineering-data in CAD/PLM, project-planning in een tool als Primavera of MS Project, inkoop in SAP en een eigen voortgangs-registratie. Medewerkers schakelen de hele dag tussen systemen om een eenvoudige status-vraag te beantwoorden. Wij bouwen een werfmanagement-applicatie die deze bronnen aggregeert en voorziet van een AI-laag die afwijkingen op planning en budget in natuurlijke taal samenvat. Koppelingen via REST-APIs waar beschikbaar, via directe database-views of OData waar geavanceerdere integratie ontbreekt. Typisch 12-16 weken bouwtijd.
Use-case 3: predictive maintenance op kritieke pompen en motoren. Een leverancier van pompen of motoren aan de baggerindustrie wil zijn product uitbreiden met een service-laag: sensor-data van installaties bij klanten wereldwijd wordt centraal opgehaald, ML-modellen voorspellen onderhoudsbehoefte en de service-organisatie krijgt proactieve werkorders in haar CMMS. Wij bouwen de integratielaag (IoT-ingestion, normalisatie over verschillende klanten), het ML-platform (feature store, model registry, automatic retraining) en de klant-facing applicaties (service-portal, rapportages). Typische architectuur: MQTT-gateway aan de installatie-kant, Kafka/Event Hubs als backbone, TimescaleDB voor tijdreeksen, MLflow voor modelbeheer, een web-frontend voor service-engineers. Bouwtijd 16-24 weken afhankelijk van scope.
Use-case 4: offerte- en bestek-analyse AI-co-pilot. Een familiebedrijf in Sliedrecht dat veel tendert op grote infrastructuur- of offshore-opdrachten besteedt wekelijks honderden uren aan bestek-analyse. Wij bouwen een interne AI-co-pilot die getraind is op eerdere bestekken, offertes, projectdata en lessons-learned. Werkvoorbereiders stellen vragen in natuurlijke taal en krijgen antwoorden met bronverwijzingen naar specifieke clausules, vergelijkingen met eerdere projecten en risico-annotaties. Architectuur: document-ingestion (OCR waar nodig), vector-database (bijvoorbeeld Weaviate of pgvector), retrieval-augmented generation met on-premise LLM-optie, fine-grained access control. Bouwtijd typisch 10-14 weken voor een bruikbare v1 met 50-100 referentie-bestekken in de knowledge base.
Use-case 5: milieu- en stikstof-compliance-applicatie. Waterbouw-projecten raken in toenemende mate aan stikstofregels, Natura 2000-voorwaarden en andere milieurestricties. Wij bouwen custom applicaties die emissiedata (uit fleet-management, brandstofverbruik, motoruren) koppelen aan milieuvergunningen, kritieke Natura 2000-depositie-grenzen en dagelijkse operationele plannen. De applicatie rekent vooruit: bij huidig tempo worden de grenzen op dag X overschreden. Dit is geen theoretisch probleem — het is direct relevant voor dagelijkse operaties in de Nederlandse en Noordzee-context. Data-bronnen: interne operationele data, RIVM AERIUS voor depositie-berekeningen, KNMI-meteo voor meteo-correcties. Bouwtijd 10-16 weken.
Waarom custom en niet off-the-shelf. De drie meest voorkomende redenen binnen de Sliedrechtse context: (1) de use-cases zijn diep sector-specifiek — dredge-productie-analyse, offerte-co-pilots en milieu-compliance vragen zitten niet in een generieke SaaS-catalogus; (2) integratie-diepte over vier tot zes systemen in combinatie met boord-netwerken en satelliet-datatransmissie vraagt om een eigen integratielaag die geen externe leverancier voor jouw combinatie bouwt; (3) IP-gevoeligheid en EU-jurisdictie-vereisten sluiten veel generieke cloud-SaaS uit voor de kritieke data. Custom software, gedeployed in eigen EU-cloud of on-premise, code eigendom van de klant, is voor deze bedrijven vaak de enige optie die en compliance en functionaliteit dekt.
EU AI Act, GDPR en sector-regelgeving. De EU AI Act is vanaf 2026 gefaseerd van kracht en stelt eisen aan transparantie, toezicht en risicobeheersing voor AI-systemen. Voor de meeste waterbouw-toepassingen gaat het om 'limited risk' (transparantie-eisen) of 'minimal risk' (geen specifieke eisen), maar predictive-maintenance-modellen die beslissen over veiligheid kunnen richting 'high risk' bewegen. Wij ontwerpen vanaf het begin met documentatie van trainingsdata, modelkaarten, testrapporten en menselijke-oversight-procedures, zodat klanten klaar zijn voor toekomstige conformiteitsbeoordelingen. GDPR is relevant voor personeelsgegevens, bemanning-rostering en klant-contactgegevens; ons standaard-patroon is data-minimisatie, pseudonimisatie waar mogelijk en strakke role-based access. Voor offshore-contracten kunnen additionele eisen gelden vanuit internationale bronnen (IMO, flag-state-eisen); onze architectuur laat ruimte voor audit en evidence-export conform deze kaders.
Data-residency en cloud-architectuur. Default deployen we op EU-only infrastructuur: Azure West Europe of AWS Frankfurt. Voor bedrijven met zeer strikte IP-eisen bouwen we een hybrid architectuur: gevoelige data (ontwerpen, contracten, bestekken) on-premise of in private cloud, minder gevoelige telemetry in public EU-cloud, integratie over een gecontroleerde bridge. AI-modellen voor IP-gevoelige use-cases draaien op zelfgehoste open-source LLMs (Llama 3-varianten, Mistral) binnen de eigen infrastructuur. Encryption-keys onder klant-controle via BYOK; audit-logs naar immutable storage. Voor bedrijven die werken onder export-controle regimes (bijvoorbeeld voor specifieke dual-use-goederen) bouwen we segregatie-lagen in tussen gevoelige en niet-gevoelige data-domeinen.
Tech-stack-keuzes. Voor kleinere integraties (1-2 systemen, 6-10 weken bouwtijd): Node.js of Python backend, Postgres voor structured storage, TimescaleDB voor time-series, containerised deployment op Azure Container Apps of AWS Fargate. Voor middelgrote projecten (3-5 systemen, 10-16 weken): microservices-architectuur met event-driven communicatie via Kafka of Azure Service Bus, Kubernetes voor orkestratie, observability via OpenTelemetry en Grafana. Voor enterprise-scale fleet-applicaties (5+ systemen, 16-28 weken): event-sourcing met CQRS, dedicated integration-platform, gelaagde ML-infrastructuur (feature store, model registry, monitoring), multi-tenant voor dienstverleners die ook hun eigen klanten bedienen. Frontends typisch Next.js of React met TypeScript, voor boord-applicaties ook Progressive Web Apps met offline-first patronen (beperkte satellietverbinding).
Implementatie-traject. Fase 1 (weken 1-2): discovery on-site in Sliedrecht of Papendrecht, systeem-inventarisatie, identificatie van grootste pijnpunten. Fase 2 (weken 3-4): technisch ontwerp, architectuur-document, eerste API-contracten en data-modellen. Fase 3 (weken 5-10): implementatie in sprints van 2 weken, wekelijkse demo met eindgebruikers (werkvoorbereiders, project-engineers, service-technici). Fase 4 (weken 10-12): integratie-testen met production-data-kopieen, performance-tuning, security-audit. Fase 5 (weken 12-14): soft-launch met beperkte scope (een vloot-deel, een afdeling), monitoring van AI-model-performance en edge-cases. Fase 6 (vanaf week 14): geleidelijke uitrol en doorlopende tuning. Fysieke on-site sessies zijn standaard in fase 1, 3 en 5 — de korte reisafstand binnen de Drechtsteden maakt dit praktisch en kostenefficient.
Indicatieve investering. Voor een dredge-project-cockpit met 3-4 integraties (dredge-management + fleet-management + ERP + weather): 70.000-140.000 euro eenmalige bouw, 3.000-6.000 euro per maand voor hosting, monitoring en doorontwikkeling. Werfmanagement-applicatie met CAD/PLM-koppeling en AI-laag: 90.000-180.000 euro eenmalig, 4.000-8.000 euro per maand run-cost. Predictive-maintenance-platform voor een pompen- of motorenleverancier (IoT-ingestion, ML, service-portal): 150.000-280.000 euro eenmalig, 6.000-12.000 euro per maand. Offerte- en bestek-co-pilot met on-premise LLM-optie: 80.000-180.000 euro eenmalig inclusief 50-100 referentie-documenten, 3.500-7.000 euro per maand. Milieu- en stikstof-compliance-applicatie: 60.000-120.000 euro eenmalig, 2.500-5.000 euro per maand. Enterprise event-sourcing-platforms met meer dan vijf systemen: 250.000 euro en hoger eenmalig. Wij starten altijd met de integratie die operationeel de meeste impact heeft, niet met de meest technisch interessante.
Waarom CleverTech voor custom AI software in de Drechtsteden. We combineren technische diepgang (REST, GraphQL, OPC UA, MQTT, Kafka, event-streaming, ML-engineering, on-premise LLM-hosting) met begrip van de sector-context: waterbouw, offshore, scheepsbouw en maritieme toeleveranciers. We werken Drechtsteden-pragmatisch: snel, concreet, resultaat-gericht, geen feature-bloat en geen onnodige PowerPoint-cycli. Eerste werkende integratie binnen 6-10 weken, iteratieve uitbreiding daarna. Code en documentatie zijn eigendom van de klant, deploybaar in eigen infrastructuur, maintainable door eigen team of door ons onder DevOps-ondersteuning. Fysieke on-site aanwezigheid is onderdeel van de aanpak — we zijn binnen korte tijd ter plaatse voor kritische stappen in het traject.
Zie voor naastgelegen diensten en perspectieven ook AI solutions in Sliedrecht voor bredere data- en analyse-oplossingen, de hoofdpagina AI software voor de algemene dienstspecificatie, en de regio-pagina /regio/sliedrecht voor de volledige lokale context. Omliggende Drechtsteden-gemeentes met vergelijkbare maritieme focus: /regio/dordrecht en /regio/papendrecht. Ondersteunende sector-kaders via Topsector Water en branche-samenwerking binnen Drechtsteden.
Opgesteld met AI-tools en gecontroleerd door het redactieteam van CleverTech — tech-leads met ervaring in AI, procesautomatisering en IT-consulting.
AI Software op Maat verbindt jouw projectmanagement, ERP, documentbeheer en planningssystemen. We bouwen koppelingen die zorgen dat data naadloos stroomt tussen werkplaats, kantoor en projectlocatie.
Custom software-bouw met begrip van dredge-management, bathymetrie-pipelines, fleet-operations en sector-standaarden (NMEA 2000, OPC UA, ECDIS). Architectuur-patronen die aansluiten op de realiteit van TSHD- en CSD-operaties, inclusief satelliet-datatransmissie, offline-first-patronen en time-series-analytics op hoge volumes sensordata.
Sliedrechtse bedrijven willen resultaat, niet een architectuurdocument van 200 pagina's. Wij leveren in 6-10 weken een werkende eerste integratie (MVP) met echte data en echte gebruikers, daarna iteratieve uitbreiding in kwartaal-ritme. Geen big-bang, geen cut-over-risico, geen feature-bloat.
Werven, werkschepen en productielocaties in Sliedrecht, Papendrecht, Dordrecht en Kinderdijk zijn binnen handbereik voor fysieke discovery-sessies, demo-momenten en implementatie-ondersteuning. Voor custom software in de waterbouw is meekijken op de werkvloer onmisbaar — wij zijn er fysiek wanneer het nodig is, niet alleen via video.
Deployment standaard op Azure West Europe, AWS Frankfurt of private on-premise Kubernetes. AI-modellen op IP-gevoelige data draaien op zelfgehoste open-source LLMs binnen de eigen perimeter. BYOK encryption, immutable audit-logs, role-based access. Conformeert aan GDPR, EU AI Act en de eisen die Nederlandse waterbouwbedrijven stellen rondom project-IP en contract-vertrouwelijkheid.
Antwoorden voor bedrijven in Sliedrecht
Ja. Wij bouwen integratielagen die dredge-management-systemen (vendor-specifiek, maar ook open-source en eigen-bouw) verbinden met ERP zoals SAP S/4HANA of IFS Cloud, met fleet-management-platforms (Kongsberg Vessel Insight, Wartsila Fleet Operations Solution) en met BI- of rapportage-omgevingen. Ruwe sensor-data van baggerschepen (productie-metingen, positionering via RTK-GNSS, pompdrukken, sediment-samenstelling) wordt genormaliseerd in een domein-model, opgeslagen in een time-series-database (TimescaleDB of InfluxDB) en beschikbaar gemaakt voor project-controllers en engineers. AI-laag daarop: afwijking-detectie op productiepatronen, sediment-classificatie en productie-voorspellingen onder verschillende meteo- en bodemcondities. Koppeling werkt ook met CSV-exports uit oudere systemen wanneer real-time niet haalbaar is.
Kongsberg Vessel Insight en Wartsila Fleet Operations Solution bieden beide vendor-APIs (REST, in sommige gevallen event-streams) voor het uitlezen van operationele events, onderhoudsstatus en vessel-performance. Wij bouwen een integratielaag die via deze APIs data inleest, normaliseert naar een klant-specifiek domein-model en vervolgens beschikbaar maakt voor eigen applicaties — dredge-project-cockpits, predictive-maintenance-modellen, route- en assignment-optimalisatie. De core-suite hoeft niet vervangen te worden; wij werken er omheen en voegen toe wat de suite niet dekt. Voor oudere ECDIS- en NMEA 2000-data aan boord bouwen we edge-gateways met MQTT of OPC UA die data naar wal pushen, rekening houdend met beperkte satelliet-bandbreedte (buffering, compressie, prioritisering van kritieke events).
IP-bescherming is een kern-ontwerpcriterium, geen nagekomen gedachte. Wij deployen default op EU-only infrastructuur (Azure West Europe, AWS Frankfurt of eigen on-premise Kubernetes). AI-modellen die op IP-gevoelige data werken — ontwerpen, bestekken, contract-clausules — draaien op zelfgehoste open-source LLMs (Llama 3-varianten, Mistral) binnen de eigen perimeter, niet op US-hyperscaler-APIs. Encryption-keys staan onder klant-controle via bring-your-own-key-patronen. Audit-logs gaan naar immutable storage (Azure Immutable Blob of S3 Object Lock) zodat toegangspatronen achteraf traceerbaar zijn. Voor bedrijven onder export-controle-regimes bouwen we expliciete segregatie tussen gevoelige en niet-gevoelige data-domeinen. Contractueel regelen we data-processing-agreements, DPIAs waar GDPR dat vraagt en heldere code-eigendomsclausules — alle code en documentatie is eigendom van de klant.
Ja, beide. SAP S/4HANA koppelen we via OData en REST voor moderne interacties, via IDocs en BAPIs voor bestaande integratie-patronen. IFS Cloud biedt een moderne REST-API-laag die we gebruiken voor project-, financial- en onderhoudsmodules; voor IFS Maintenix koppelen we met het maintenance-domein-model (werkorders, onderdelen, arbeidsuren). Typische use-cases: dredge-project-cockpits die operationele data koppelen aan project-financien, predictive-maintenance-applicaties die werkorders automatisch in CMMS (IFS Maintenix, Ultimo, IBM Maximo) plaatsen, bestek-co-pilots die contract-data uit ERP gebruiken voor margin-analyses. We bouwen een eigen abstractie-laag over de ERP-APIs heen zodat de rest van de custom applicatie stabiel blijft bij upgrades of vervangingen van de ERP-stack.
Dredge-project-cockpit met 3-4 integraties (dredge-management + fleet + ERP + weather): 70.000-140.000 euro eenmalige bouw plus 3.000-6.000 euro per maand voor hosting, monitoring en doorontwikkeling. Werfmanagement-applicatie met CAD/PLM-koppeling en AI-laag: 90.000-180.000 euro eenmalig plus 4.000-8.000 euro per maand. Predictive-maintenance-platform (IoT-ingestion, ML, service-portal): 150.000-280.000 euro eenmalig plus 6.000-12.000 euro per maand. Offerte- en bestek-co-pilot met on-premise LLM-optie en 50-100 referentie-documenten: 80.000-180.000 euro eenmalig plus 3.500-7.000 euro per maand. Milieu- en stikstof-compliance-applicatie: 60.000-120.000 euro eenmalig plus 2.500-5.000 euro per maand. Enterprise event-sourcing-platforms met meer dan vijf systemen: 250.000 euro en hoger eenmalig. We starten altijd met de integratie die operationeel de meeste impact heeft, niet de technisch meest interessante, en bouwen iteratief uit.
De EU AI Act is vanaf 2026 gefaseerd van kracht en stelt eisen aan transparantie, menselijke oversight en risicobeheersing. Voor de meeste waterbouw-applicaties valt het risiconiveau op "limited" of "minimal", maar predictive-maintenance-modellen met directe veiligheidsimpact of AI-systemen die over personeel beslissen kunnen richting "high risk" bewegen. Wij ontwerpen vanaf dag een met documentatie van trainingsdata, modelkaarten, testrapporten, menselijke-oversight-procedures en incident-response-plannen zodat conformiteit met de AI Act haalbaar is wanneer die voor uw use-case van toepassing wordt. GDPR is relevant voor personeelsgegevens, bemanning-planning, klant- en leverancier-contactdata; we hanteren data-minimisatie, pseudonimisatie waar mogelijk, role-based access en DPIA's voor nieuwe verwerkingen. Samenwerking met Autoriteit Persoonsgegevens en ons netwerk van sector-juristen staat achter de implementatie.
Ja, dat is vaak de meest pragmatische aanpak. Veel bestaande dredge-management- en fleet-systemen aan boord werken prima voor hun kern-functie maar hebben beperkte open-interfaces of leveren data alleen als periodieke exports. Wij bouwen edge-gateways die aan boord draaien, NMEA-0183/2000-feeds en CSV-exports parseren, en relevante data via satelliet-verbinding naar wal pushen met buffering, compressie en prioritering. Het bestaande systeem blijft ongewijzigd en gecertificeerd; de nieuwe integratie-laag leeft er omheen. Bij wal komt de data in een moderne data-pipeline (Kafka of Azure Event Hubs, time-series-database, data-lake) die voeding geeft aan applicaties, AI-modellen en dashboards. Deze aanpak vermijdt de grote risicos en kosten van een boord-systeem-migratie en levert toch moderne custom software-functionaliteit op.
Vraag niet beantwoord?
Neem contact met ons op - ga naar de contactpaginaGeen verplichtingen. Een kort gesprek of AI-scan is vaak het snelste begin.