<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>En Masse &#8211; niet mauwen maar bouwen</title>
	<atom:link href="https://en-masse.nl/feed/" rel="self" type="application/rss+xml" />
	<link>https://en-masse.nl/</link>
	<description>En Masse bouwt online applicaties, ons motto is: niet mauwen maar bouwen.</description>
	<lastBuildDate>Wed, 18 Mar 2026 15:44:25 +0000</lastBuildDate>
	<language>nl-NL</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>Het model is de chip: waarom AI-inference nooit meer hetzelfde wordt</title>
		<link>https://en-masse.nl/het-model-is-de-chip-waarom-ai-inference-nooit-meer-hetzelfde-wordt/</link>
		
		<dc:creator><![CDATA[Sjoerd]]></dc:creator>
		<pubDate>Fri, 27 Feb 2026 15:38:23 +0000</pubDate>
				<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">https://en-masse.nl/?p=342</guid>

					<description><![CDATA[<p>Wij gaan het zeggen, komt ie: AI-interference wordt nooit meer hetzelfde. Zo. De Canadese AI-startup Taalas haalt namelijk 17.000 tokens per seconde uit een chip die geen GPU is, geen <a href="https://en-masse.nl/het-model-is-de-chip-waarom-ai-inference-nooit-meer-hetzelfde-wordt/" class="more-link">Continue reading <span class="screen-reader-text">Het model is de chip: waarom AI-inference nooit meer hetzelfde wordt</span></a></p>
<p>The post <a href="https://en-masse.nl/het-model-is-de-chip-waarom-ai-inference-nooit-meer-hetzelfde-wordt/">Het model is de chip: waarom AI-inference nooit meer hetzelfde wordt</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Wij gaan het zeggen, komt ie: AI-interference wordt nooit meer hetzelfde. Zo. De Canadese AI-startup Taalas haalt namelijk 17.000 tokens per seconde uit een chip die geen GPU is, geen HBM heeft en 200 watt verbruikt. Axelera AI uit Eindhoven haalde $ 250 miljoen op, de grootste AI-chip investering in de EU ooit, voor energiezuinige edge-chips. De boodschap is duidelijk: de toekomst van AI draait niet op grote datacenters, maar op silicium.</span></p>
<h2><b>ChatJimmy is snel</b></h2>
<p><span style="font-weight: 400;">Even terug naar Taalas en hun 17.000 tokens per seconde. Taalas ontwikkelde met AI-model Llama 3.1 8B chatbot ChatJimmy. De chatbot lijkt op het eerste gezicht een gewone chat-interface. Tot je iets typt. Het antwoord verschijnt zó snel, dat je denkt dat het gecached is. Maar dat is het niet: het is een HC1-chip die 17.000 tokens per seconde haalt. Ter vergelijking: een Nvidia H200, een van de snelste GPU’s ter wereld, haalt met hetzelfde model ongeveer 230 tokens per seconde. ChatJimmy is dus 74 keer sneller.</span></p>
<p><span style="font-weight: 400;">Ga zelf maar eens naar </span><a href="http://chatjimmy.ai" target="_blank" rel="noopener"><span style="font-weight: 400;">chatjimmy.ai</span></a><span style="font-weight: 400;"> en vraag: “Schrijf 20 paragrafen over de toekomst van AI-hardware”. Je ziet het verschil in seconden, letterlijk.</span></p>
<h2><b>Het model als chip</b></h2>
<p><span style="font-weight: 400;">Hoe doet Taalas dat? Leggen we natuurlijk aan je uit. Bij normale AI-interference laadt een GPU de weights van een model uit geheugen (HBM), rekent ermee en schrijft het resultaat terug. Dat heen en weer schuiven van data is de bottleneck; de zogenaamde memory wall.</span></p>
<p><span style="font-weight: 400;">Taalas pakt dit radicaal anders aan. Eerst bouwden ze een ASIC (Application-Specific Integrated Circuit), waarbij de weights van het AI-model letterlijk in de metaallagen van de chip zijn geëtst. Er is nu geen apart geheugen meer: het model is de chip.</span></p>
<p><span style="font-weight: 400;">Stel je voor dat je een recept uit een kookboek volgt. Normaal pak je het boek, lees je een stap, leg je het boek weg, voer je de stap uit, en pak je het boek weer om verder te gaan met de volgende stap. Dat is ook hoe een GPU werkt. Maar met de HC1-chip van Taalas is het alsof het recept in je handen gegraveerd staat; je hoeft nergens meer te zoeken.</span></p>
<h2><b>De specificaties</b></h2>
<ul>
<li><span style="font-weight: 400;">53 miljard transistors op 815 mm²</span></li>
<li><span style="font-weight: 400;">Gefabriceerd door TSMC op 6nm</span></li>
<li><span style="font-weight: 400;">200 watt per kaart (een H100 verbruikt 700 watt)</span></li>
<li><span style="font-weight: 400;">Een server met 10 HC1-kaarten: 2.500 watt totaal</span></li>
<li><span style="font-weight: 400;">20x lagere kosten dan GPU-gebaseerde inference</span></li>
<li><span style="font-weight: 400;">10x minder stroomverbruik</span></li>
</ul>
<p><span style="font-weight: 400;">En misschien het meest indrukwekkende: Taalas heeft een compiler-achtig systeem gebouwd dat van elk model in ongeveer een week een chipontwerp maakt. Geen R&amp;D-cyclus van jaren, maar gewoon meteen een productielijn.</span></p>
<h2><b>Kwaliteit versus snelheid</b></h2>
<p><span style="font-weight: 400;">De HC1 draait Llama 3.1 8B met agressieve quantisatie: een mix van 3-bit en 6-bit parameters. Dat betekent dat het model kleiner en minder precies is dan de full-precision versie op een GPU. En dat merk je soms. Bij complexe </span><span style="font-weight: 400;">redeneeringstaken </span><span style="font-weight: 400;">of genuanceerde teksten levert een groter model betere resultaten.</span></p>
<p><span style="font-weight: 400;">Maar juist daar zit de crux: voor heel veel taken is een kleiner model al goed genoeg. Voor het beantwoorden van klantvragen, classificeren van data, samenvatten van teksten, verwerken van formulieren of het routeren van e-mails heb je geen 70B–parameter model nodig. </span></p>
<h2><b>De kracht van parallelle iteratie</b></h2>
<p><span style="font-weight: 400;">En nu wordt het pas echt interessant. Bij 17.000 tokens per seconde kun je hetzelfde model 100 keer dezelfde vraag laten benaderen, iedere keer vanuit een andere invalshoek. Vervolgens selecteer je het beste antwoord. Vergelijk het met één expert die lang nadenkt; in plaats daarvan pak je honderd snelle denkers en kies je het slimste antwoord. Bij de huidige GPU-snelheden is dit onbetaalbaar, maar bij HC1-snelheden is dat triviaal.</span></p>
<p><span style="font-weight: 400;">Dit is een fundamenteel andere manier van denken over AI-kwaliteit. Niet: gebruik een groter model. Maar: gebruik een snel model, vaker, slimmer.</span></p>
<h2>Meer weten?</h2>
<p>Verder praten en nog meer weten? <span style="font-weight: 400;"><a class="blog-card__read-more" href="https://en-masse.nl/contact">Bel of mail ons.</a></span></p>
<p>The post <a href="https://en-masse.nl/het-model-is-de-chip-waarom-ai-inference-nooit-meer-hetzelfde-wordt/">Het model is de chip: waarom AI-inference nooit meer hetzelfde wordt</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Lightspeed-maatwerk voor webshop in moderne en duurzame accessoires</title>
		<link>https://en-masse.nl/lightspeed-maatwerk-voor-webshop-in-moderne-en-duurzame-accessoires/</link>
		
		<dc:creator><![CDATA[Sjoerd]]></dc:creator>
		<pubDate>Wed, 17 Dec 2025 14:47:06 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Analyse]]></category>
		<category><![CDATA[Custom made]]></category>
		<category><![CDATA[Dashboard]]></category>
		<category><![CDATA[Data]]></category>
		<category><![CDATA[Development]]></category>
		<category><![CDATA[Inzicht]]></category>
		<category><![CDATA[Koppeling]]></category>
		<category><![CDATA[Lightspeed]]></category>
		<category><![CDATA[Platform]]></category>
		<category><![CDATA[Prijsfeed]]></category>
		<category><![CDATA[Softwareontwikkeling]]></category>
		<guid isPermaLink="false">https://en-masse.nl/?p=335</guid>

					<description><![CDATA[<p>Te weinig maatwerk mogelijk in Lightspeed? Niet voor ons. Een webshop in moderne en duurzame accessoires wilde meer kunnen zien en doen in Lightspeed. Dankzij onze inzet is dat nu <a href="https://en-masse.nl/lightspeed-maatwerk-voor-webshop-in-moderne-en-duurzame-accessoires/" class="more-link">Continue reading <span class="screen-reader-text">Lightspeed-maatwerk voor webshop in moderne en duurzame accessoires</span></a></p>
<p>The post <a href="https://en-masse.nl/lightspeed-maatwerk-voor-webshop-in-moderne-en-duurzame-accessoires/">Lightspeed-maatwerk voor webshop in moderne en duurzame accessoires</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><b>Te weinig maatwerk mogelijk in Lightspeed? Niet voor ons. Een webshop in moderne en duurzame accessoires wilde meer kunnen zien en doen in Lightspeed. Dankzij onze inzet is dat nu mogelijk.</b></p>
<h2>Zoeken naar meer functionaliteiten in Lightspeed</h2>
<p>De webshop werkte al met Lightspeed &#8211; het complete kassasysteem en betaalplatform voor horeca- en retailondernemers &#8211; maar was op zoek naar meer custom functionaliteiten. De technische partij die op dat moment aan boord was kon daar helaas niet voldoende bij helpen en via-via kwam de webshop bij ons terecht. Werden wij blij van, want als er íemand is gespecialiseerd in maatwerk en data, zijn wij het.</p>
<p>Samen met de klant brachten we de wensen in kaart. De mogelijkheden om Lightspeed naar eigen hand te zetten zijn beperkt, toch konden we de mogelijkheden oprekken en de wensen realiseren via een slimme workaround.</p>
<h2>Custom made oplossing</h2>
<p>We pasten bijvoorbeeld het bestaande thema aan en voegden uitgebreide opties toe voor meertaligheid, nieuwe navigatie- en URL-structuren en we zorgden voor geoptimaliseerde afbeeldingen.</p>
<p>De klant kan nu meer gewenste informatie uit Lightspeed halen dan voorheen en zo hebben we toch een custom made oplossing kunnen opleveren.</p>
<p><span style="font-weight: 400;"><a class="blog-card__read-more" href="https://en-masse.nl/contact">Bel of mail ons</a></span>, als je ook op zoek bent naar een maatwerkoplossing. We helpen je graag!</p>
<p>The post <a href="https://en-masse.nl/lightspeed-maatwerk-voor-webshop-in-moderne-en-duurzame-accessoires/">Lightspeed-maatwerk voor webshop in moderne en duurzame accessoires</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Er is meer dan ChatGPT: kies het juiste model met Promptfoo</title>
		<link>https://en-masse.nl/ai-modellen-testen-promptfoo-benchmark/</link>
		
		<dc:creator><![CDATA[Sjoerd]]></dc:creator>
		<pubDate>Thu, 11 Dec 2025 10:44:42 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<guid isPermaLink="false">https://en-masse.nl/?p=310</guid>

					<description><![CDATA[<p>Werk je met AI, dan valt één ding snel op: iedereen heeft het over ChatGPT, Gemini of Grok. Maar deze bekende tools zijn lang niet altijd de beste keuze voor <a href="https://en-masse.nl/ai-modellen-testen-promptfoo-benchmark/" class="more-link">Continue reading <span class="screen-reader-text">Er is meer dan ChatGPT: kies het juiste model met Promptfoo</span></a></p>
<p>The post <a href="https://en-masse.nl/ai-modellen-testen-promptfoo-benchmark/">Er is meer dan ChatGPT: kies het juiste model met Promptfoo</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><b>Werk je met AI, dan valt één ding snel op: iedereen heeft het over ChatGPT, Gemini of Grok. Maar deze bekende tools zijn lang niet altijd de beste keuze voor jouw proces. Kijk mee hoe wij per vraagstuk de beste keuze maken met gebruik van Promptfoo.</b></p>
<p>&nbsp;</p>
<h2>Modellen versus tools</h2>
<p>Eerst even terug. We kennen ChatGPT natuurlijk allemaal. Het is een product (of tool) van het bedrijf OpenAI, net zoals Gemini bijvoorbeeld een product van Google is. Onder deze producten draaien verschillende Large Language Modellen (LLM’s), denk aan GPT-4.1, Claude, Gemini 2.0, Llama-varianten of lokale modellen via Ollama.</p>
<p>Maar die modellen verschillen flink in prijs en kwaliteit. Sommige modellen schrijven fantastische code, maar gaan de mist in met bijvoorbeeld Nederlandse spreekwoorden. Andere modellen zijn supersnel en goedkoop, maar halen lagere kwaliteit bij complexe taken. En weer andere modellen zijn juist extreem goed in redeneren, maar duur in gebruik.</p>
<p>Toch zien we vaak dat organisaties ‘één AI’ kiezen en die overal voor gebruiken. Handig voor op de korte termijn, maar ook risicovol: je betaalt waarschijnlijk te veel en krijgt soms mindere kwaliteit dan nodig.</p>
<h2>Je móet AI-modellen testen en benchmarken</h2>
<p>LLM’s zijn geen statische API’s. Die modellen worden namelijk regelmatig bijgewerkt, providers wisselen met hun prijzen, en de kwaliteit schommelt door drukte of nieuwe versies. Zeker als je modellen gebruikt die je zelf niet host, heb je daar weinig controle over. Zonder testing en benchmarking loop je daarom risico op:</p>
<ul>
<li>Wisselende kwaliteit: gisteren werkte je flow prima, maar vandaag niet meer;</li>
<li>Onnodige kosten: omdat je een dure ‘flagship AI’ gebruikt, terwijl een kleiner model hetzelfde doet;</li>
<li>Vendor lock-in: je organisatie raakt afhankelijk van één leverancier;</li>
<li>Lastige discussies: ‘het voelt trager’ is lastig uit te leggen, meetbare cijfers niet.</li>
</ul>
<h2>Promptfoo: open source framework</h2>
<p>Wij testen alle LLM-modellen op structurele wijze. Hierbij maken wij gebruik van bijvoorbeeld <a href="https://github.com/promptfoo/promptfoo" target="_blank" rel="noopener">Promptfoo</a>.</p>
<p>Promptfoo is een open source framework om LLM-toepassingen te testen en te benchmarken. Je beschrijft in YAML (YAML Ain&#8217;t Markup Language, mensvriendelijk dataformaat) of in code:</p>
<ul>
<li>Welke taken je wil testen;</li>
<li>Welke modellen/providers je wil vergelijken (OpenAI, Anthropic, Google, Azure, lokale modellen);</li>
<li>Welke checks moeten slagen (bijvoorbeeld: bevat het antwoord een spreekwoord, is de JSON valide, is de toon vriendelijk).</li>
</ul>
<p>Op basis van deze input draait Promptfoo automatisch al je testcases, toont de resultaten in een matrix én kan zo onderdeel worden van je CI/CD-pipeline.</p>
<p>Kort gezegd: Promptfoo brengt ouderwets testen naar moderne AI-toepassingen.</p>
<h2>Kleine test uit onze praktijk</h2>
<p>In de screenshots bij dit artikel zie je één van onze eigen runs met Promptfoo. We vergeleken vier modellen op drie realistische taken:</p>
<ol>
<li>Symfony controller schrijven met validatie;</li>
<li>E-mail in het Nederlands naar een IT-manager, mét echt Nederlands spreekwoord;</li>
<li>Projectplan User Registration voor een solo-developer (20 uur/week), inclusief fases en risico’s.</li>
</ol>
<h4>Screenshot 1:</h4>
<p><a href="https://en-masse.nl/wp-content/uploads/2025/12/promptfoo-benchmark-overview.png" target="_blank" rel="noopener"><img fetchpriority="high" decoding="async" class="alignnone size-large wp-image-323" src="https://en-masse.nl/wp-content/uploads/2025/12/promptfoo-benchmark-overview-1024x502.png" alt="Vergelijkingstabel van AI-modellen waarin GLM-4.5 als beste uit de test komt op het gebied van code, Nederlands en management. De afbeelding bevat ook bijgewerkte aanbevelingen die GLM-4.5 adviseren voor kwaliteit en GPT-OSS-20B voor snelheid." width="512" height="251" srcset="https://en-masse.nl/wp-content/uploads/2025/12/promptfoo-benchmark-overview-1024x502.png 1024w, https://en-masse.nl/wp-content/uploads/2025/12/promptfoo-benchmark-overview-300x147.png 300w, https://en-masse.nl/wp-content/uploads/2025/12/promptfoo-benchmark-overview-768x377.png 768w, https://en-masse.nl/wp-content/uploads/2025/12/promptfoo-benchmark-overview.png 1199w" sizes="(max-width: 512px) 100vw, 512px" /></a></p>
<p>Promptfoo draait de testset in één klap. Per model zie je:</p>
<ul>
<li>Welke cases PASS of FAIL zijn;</li>
<li>Hoeveel tokens (en dus kosten) zijn gebruikt;</li>
<li>Het totale slagingspercentage.</li>
</ul>
<p>In ons voorbeeld kwam één model duidelijk als beste uit de bus voor deze mix van taken. In een tweede screenshot zie je ook de samenvatting en dit laat precies zien wat we bedoelen: er is niet één beste AI. Het hangt af van de taak.</p>
<h4>Screenshot 2:</h4>
<p><a href="https://en-masse.nl/wp-content/uploads/2025/12/promptfoo-detailed-report.png"><img decoding="async" class="alignnone size-large wp-image-322" src="https://en-masse.nl/wp-content/uploads/2025/12/promptfoo-detailed-report-1024x1021.png" alt="Terminal-output van een promptfoo-evaluatie. Het geteste model behaalt een score van slechts 33,33%. Van de drie opdrachten slaagde alleen de taak voor het schrijven van een Nederlandse e-mail; de codeer- en planningsopdrachten faalden." width="512" height="510" srcset="https://en-masse.nl/wp-content/uploads/2025/12/promptfoo-detailed-report-1024x1021.png 1024w, https://en-masse.nl/wp-content/uploads/2025/12/promptfoo-detailed-report-300x300.png 300w, https://en-masse.nl/wp-content/uploads/2025/12/promptfoo-detailed-report-150x150.png 150w, https://en-masse.nl/wp-content/uploads/2025/12/promptfoo-detailed-report-768x766.png 768w, https://en-masse.nl/wp-content/uploads/2025/12/promptfoo-detailed-report.png 1191w" sizes="(max-width: 512px) 100vw, 512px" /></a></p>
<ul>
<li>QUALITY WORK (coding, planning, professioneel Nederlands): Model A;</li>
<li>FAST DRAFTS (brainstormen, snelle antwoorden): Model B;</li>
<li>BALANCED (als model A niet beschikbaar is): Model C;</li>
<li>Model D: alleen nuttig voor niche-cases, bijvoorbeeld extreem grote context.</li>
</ul>
<h2>Hoe En Masse Promptfoo inzet in organisaties</h2>
<p>Bij het implementeren van een AI-oplossing, doorlopen we grofweg de volgende stappen:</p>
<ol>
<li>Processen in kaart brengen: samen met het team bepalen we welke stappen écht belangrijk zijn. Code genereren, e-mails beantwoorden, samenvattingen, rapportages.</li>
<li>Echte use-cases omzetten in tests: geen ‘lorem ipsum’-prompts maar realistische voorbeelden: echte klantvragen, echte tickets, echte interne teksten. Voor iedere testcase beschrijven we wat een goed antwoord is.</li>
<li>Promptfoo configureren: in YAML leggen we vast welke modellen we willen testen, welke prompts of agents we gebruiken en welke criteria bepalen of een antwoord goed is (bijvoorbeeld: moet een spreekwoord bevatten, mag geen privacygevoelige data lekken, moet geldbedragen in euro vermelden).</li>
<li>Benchmark draaien en analyseren: Promptfoo draait alles door en toont een overzichtelijke matrix met scores, latency en kosten per model. Zo kunnen we onderbouwd kiezen. Soms wint een ‘klein’ model met gemak van een dure topper.</li>
<li>Continu monitoren: dezelfde tests draaien we periodiek of bij elke deployment. Als een provider onder water een model wijzigt en de kwaliteit daalt, zien we dat direct in de resultaten. Zo voorkom je dat klanten de eerste zijn die het merken.</li>
</ol>
<h2>Wat levert het gebruik van Promptfoo jou op?</h2>
<p>Dat wij fan zijn van Promptfoo moge duidelijk zijn. Nu wil jij natuurlijk weten wat het voor jou als organisatie oplevert. Komt ‘ie:</p>
<ul>
<li>Betere kwaliteit: je gebruikt het LLM-model dat aantoonbaar het beste presteert op jóuw taken;</li>
<li>Lagere kosten: geen overkill-modellen voor simpele taken;</li>
<li>Minder risico: regressies en rare model-updates zie je in je tests en niet pas in productie (of na een belletje van de klant);</li>
<li>Transparantie richting management: in plaats van ‘het voelt beter’ kun je het laten zien met duidelijke cijfers: hogere score, lagere maandelijkse kosten.</li>
</ul>
<h2>Ook verder kijken dan ‘één AI’?</h2>
<p>Werk je nu vooral met ChatGPT en ben je benieuwd welke modellen het beste passen bij jouw processen? Wij helpen je graag! Samen brengen we jouw belangrijkste AI-taken in kaart, zetten we een pragmatische testset op met bijvoorbeeld Promptfoo en kiezen we een modelstrategie die past bij kwaliteit, kosten en risico. Klinkt goed toch?</p>
<p><span style="font-weight: 400;"><a class="blog-card__read-more" href="https://en-masse.nl/contact">Bel of mail ons</a></span>, dan laten we je live zien hoe zo’n benchmark werkt; inclusief kleurrijke PASS/FAIL-matrix. Want wij zeggen niet voor niets heel graag “niet mouwen maar (meteen) bouwen”.</p>
<p>The post <a href="https://en-masse.nl/ai-modellen-testen-promptfoo-benchmark/">Er is meer dan ChatGPT: kies het juiste model met Promptfoo</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>En Masse heeft de oplossing voor wisselvallige AI-modellen</title>
		<link>https://en-masse.nl/en-masse-heeft-de-oplossing-voor-wisselvallige-ai-modellen/</link>
		
		<dc:creator><![CDATA[Sjoerd]]></dc:creator>
		<pubDate>Wed, 12 Nov 2025 15:55:12 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI-modellen]]></category>
		<category><![CDATA[AI-server]]></category>
		<category><![CDATA[Betrouwbaarheid]]></category>
		<category><![CDATA[Voorspelbaar]]></category>
		<guid isPermaLink="false">https://en-masse.nl/?p=285</guid>

					<description><![CDATA[<p>AI is best indrukwekkend. Het schrijft teksten, analyseert documenten en beantwoordt vragen. En meestal krijg je wel een helder en inhoudelijk sterk antwoord hoor, maar soms… niet. Voor bedrijven uiteraard <a href="https://en-masse.nl/en-masse-heeft-de-oplossing-voor-wisselvallige-ai-modellen/" class="more-link">Continue reading <span class="screen-reader-text">En Masse heeft de oplossing voor wisselvallige AI-modellen</span></a></p>
<p>The post <a href="https://en-masse.nl/en-masse-heeft-de-oplossing-voor-wisselvallige-ai-modellen/">En Masse heeft de oplossing voor wisselvallige AI-modellen</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><b>AI is best indrukwekkend. Het schrijft teksten, analyseert documenten en beantwoordt vragen. En meestal krijg je wel een helder en inhoudelijk sterk antwoord hoor, maar soms… niet. Voor bedrijven uiteraard niet te doen. Hoe dat komt én vooral hoe je het kunt voorkomen lees je hieronder.</b></p>
<h2><b>Waarom AI-output zo wisselvallig is</b></h2>
<p><span style="font-weight: 400;">De output van AI kan nogal wisselvallig zijn. Je krijgt ‘s ochtends prima antwoorden op je vragen, maar ‘s middags is de logica ver te zoeken. Komt omdat de meeste AI-modellen draaien op dezelfde publieke systemen. Vooral einde middag daalt de kwaliteit van de output; dan gaan ze in de Verenigde Staten namelijk ook vragen stellen aan AI.</span><span style="font-weight: 400;"><br />
</span><span style="font-weight: 400;"><br />
</span><span style="font-weight: 400;">Gebruik je AI hobbymatig, dan is dat een beetje jammer. Maar voor bedrijven is dit natuurlijk onacceptabel want dan verwacht je consistente en betrouwbare kwaliteit.</span></p>
<h2><b>Eigen betrouwbare AI van En Masse</b></h2>
<p><span style="font-weight: 400;">We willen dus graag een slimme AI, maar bovenal een voorspelbare en betrouwbare AI. Want of je nu automatisch samenvattingen genereert, klantvragen verwerkt of interne processen versnelt met behulp van AI: je moet kunnen rekenen op constante kwaliteit. </span><span style="font-weight: 400;"><br />
</span><span style="font-weight: 400;"><br />
</span><span style="font-weight: 400;">Gelukkig draaien wij onze <strong>eigen En Masse AI-servers</strong>. Wij zijn niet afhankelijk van de publieke AI-systemen en hun onvoorspelbare pieken en dalen in de kwaliteit van de output. Onze eigen AI-servers van En Masse draaien met <strong>zelfgekozen modellen</strong> en in een <strong>gecontroleerde omgeving</strong>. Zo weten wij precies wat de output doet, wanneer én waarom.</span></p>
<h2><strong>De eigen AI-servers van En Masse</strong></h2>
<ul>
<li><span style="font-weight: 400;">Consistente kwaliteit in de output</span></li>
<li><span style="font-weight: 400;">Volledige controle over updates, latency en prestaties</span></li>
<li><span style="font-weight: 400;">En we hebben alle data volledig in eigen beheer. Dat is veilig, transparant en compliant.</span></li>
</ul>
<p><span style="font-weight: 400;">Kijk ook eens op <a href="https://aistupidlevel.info" target="_blank" rel="noopener">AI Stupid Level</a>. </span><span style="font-weight: 400;">Op deze website zie je hoe vaak grote AI-modellen zoals OpenAI (ChatGPT) of Anthropic (Claude) plotseling ‘domme’ antwoorden geven. En dat doen ze niet af en toe, maar dagelijks. </span></p>
<p><img decoding="async" class="alignleft wp-image-288" src="https://en-masse.nl/wp-content/uploads/2025/11/aistupidlevel-info-1024x1016.png" alt="" width="850" height="844" srcset="https://en-masse.nl/wp-content/uploads/2025/11/aistupidlevel-info-1024x1016.png 1024w, https://en-masse.nl/wp-content/uploads/2025/11/aistupidlevel-info-300x298.png 300w, https://en-masse.nl/wp-content/uploads/2025/11/aistupidlevel-info-150x150.png 150w, https://en-masse.nl/wp-content/uploads/2025/11/aistupidlevel-info-768x762.png 768w, https://en-masse.nl/wp-content/uploads/2025/11/aistupidlevel-info.png 1212w" sizes="(max-width: 850px) 100vw, 850px" /></p>
<h2><strong>Het kan dus ook anders</strong></h2>
<p><span style="font-weight: 400;"><strong>Ben je ook toe aan een stabiele AI-omgeving</strong> zodat je je niet meer druk hoeft te maken of het vandaag wel werkt? Wij laten je heel graag zien hoe wij het anders doen. </span></p>
<p><span style="font-weight: 400;"><a class="btn" href="https://en-masse.nl/contact">Bel of mail ons</a></span></p>
<p>The post <a href="https://en-masse.nl/en-masse-heeft-de-oplossing-voor-wisselvallige-ai-modellen/">En Masse heeft de oplossing voor wisselvallige AI-modellen</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>x402, match made in heaven voor AI agents, web3 en jouw online dienst?</title>
		<link>https://en-masse.nl/x402-match-made-in-heaven-voor-ai-agents-web3-en-jouw-online-dienst/</link>
		
		<dc:creator><![CDATA[Sjoerd]]></dc:creator>
		<pubDate>Mon, 27 Oct 2025 21:38:36 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<guid isPermaLink="false">https://en-masse.nl/?p=276</guid>

					<description><![CDATA[<p>AI-systemen nemen steeds vaker operationele beslissingen. Wat ze nog niet eenvoudig konden: betalen. Vanaf nu wel. Een nieuw onlangs gelanceerd protocol, x402 maakt afrekenen een native onderdeel van de HTTP <a href="https://en-masse.nl/x402-match-made-in-heaven-voor-ai-agents-web3-en-jouw-online-dienst/" class="more-link">Continue reading <span class="screen-reader-text">x402, match made in heaven voor AI agents, web3 en jouw online dienst?</span></a></p>
<p>The post <a href="https://en-masse.nl/x402-match-made-in-heaven-voor-ai-agents-web3-en-jouw-online-dienst/">x402, match made in heaven voor AI agents, web3 en jouw online dienst?</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>AI-systemen nemen steeds vaker operationele beslissingen. Wat ze nog niet eenvoudig konden: betalen. Vanaf nu wel. Een nieuw onlangs gelanceerd protocol, x402 maakt afrekenen een native onderdeel van de HTTP flow en haalt de wirwar van betaalsystemen uit API’s, data en content.</p>
<h2>Over X402</h2>
<p>X402 is een open, nog niet officiële, standaard die HTTP 402 “Payment Required” gebruikt. Als een resource vraagt om een betaling, dan levert de server de prijs- en sign-informatie. De client autoriseert, stuurt de request opnieuw in en ontvangt de response direct na verificatie.</p>
<h2>Waarom is dit waardevol?</h2>
<ul>
<li><strong>Zonder accounts of abonnementen:</strong> toegang tot API’s en content zonder vooraf in te schrijven.</li>
<li><strong>Pay-per-use:</strong> je betaalt alleen voor de daadwerkelijke aanvraag.</li>
<li><strong>Snelle, directe settlement met lage kosten:</strong> afhankelijk van netwerk-/gaskosten en eventuele fees.</li>
<li><strong>Minder fraude-risico en minder operationele overhead:</strong> dankzij cryptografische autorisaties (implementatie blijft wel bepalend).</li>
</ul>
<p>X402 bereidt ons voor op agents die zelfstandig context en (server)capaciteit inkopen.</p>
<h2>Starten met X402?</h2>
<p>Heb je reeds een API of service met waardevolle content? Begin met één premium API endpoint. Stel de prijs, ontvangstadres en token in via middleware. Definieer prijs, token en ontvangstadres. Kies een ondersteund netwerk (bijv. EVM-L2 met EIP-712-signing) en zorg dat je client 402-responses kan afhandelen met een compatibele wallet.</p>
<p><strong>Use cases</strong></p>
<ol>
<li>artikelen per stuk</li>
<li>context retrieval per document</li>
<li>model-inferentie per beeld of per token</li>
<li>computing per minuut</li>
</ol>
<p>Alles zonder vooraf registreren of sleutels beheren.</p>
<p>Dit past bij hoe wij bouwen en de toekomst zien: simpele workflows die echte bottlenecks wegnemen en duidelijke controle geven over data en toegang. Wil je concreet zien hoe pay-per-use jouw API of content beïnvloedt? Of denk je: ik wil dit heel graag snappen maar ik weet niet waar ik moet beginnen? Laat het vooral even weten of deel je huidige flow, dan denken we graag mee met een integratieplan.</p>
<p>The post <a href="https://en-masse.nl/x402-match-made-in-heaven-voor-ai-agents-web3-en-jouw-online-dienst/">x402, match made in heaven voor AI agents, web3 en jouw online dienst?</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Creatieve AI-teksten of stug om te lezen: bepaal de toon met Temperature</title>
		<link>https://en-masse.nl/creatieve-ai-teksten-of-stug-om-te-lezen-bepaal-de-toon-met-temperature/</link>
		
		<dc:creator><![CDATA[Sjoerd]]></dc:creator>
		<pubDate>Wed, 07 May 2025 12:40:55 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI-tools]]></category>
		<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[Data]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[Power user]]></category>
		<category><![CDATA[Taalmodel]]></category>
		<category><![CDATA[Temperature]]></category>
		<guid isPermaLink="false">https://en-masse.nl/?p=242</guid>

					<description><![CDATA[<p>Denk je bij het woord ‘temperatuur’ aan warm of koud? Wij ook. Maar de taalmodellen van bijvoorbeeld ChatGPT of Gemini van Google denken bij dit woord aan hoe creatief of <a href="https://en-masse.nl/creatieve-ai-teksten-of-stug-om-te-lezen-bepaal-de-toon-met-temperature/" class="more-link">Continue reading <span class="screen-reader-text">Creatieve AI-teksten of stug om te lezen: bepaal de toon met Temperature</span></a></p>
<p>The post <a href="https://en-masse.nl/creatieve-ai-teksten-of-stug-om-te-lezen-bepaal-de-toon-met-temperature/">Creatieve AI-teksten of stug om te lezen: bepaal de toon met Temperature</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Denk je bij het woord ‘temperatuur’ aan warm of koud? Wij ook. Maar de taalmodellen van bijvoorbeeld ChatGPT of Gemini van Google denken bij dit woord aan hoe creatief of hoe feitelijk een artikel moet worden. Zet je de temperatuur hoog, dan krijg je bruisende ideeën. Hallucinaties soms. Bij een te lage temperatuur wordt je tekst feitelijk, maar soms slaapverwekkend. In dit artikel lees je hoe je die balans vindt in Temperature plus concrete LinkedIn-voorbeelden.</p>
<h2>Over Temperature in een AI-taalmodel</h2>
<p>De laagste modus van Temperature, de ‘deterministische modus’, is van 0,0 tot 0,2 en daarmee ijskoud. Het model kiest het meest waarschijnlijke volgende woord. Perfect voor cijfers, juridische passages of SQL-queries: alles wat één juist antwoord kent.</p>
<p>Iets lauwer is de gebalanceerde modus, van 0,3 tot 0,7. Tussen deze temperaturen geeft het AI-taalmodel voldoende variatie, zonder al te veel risico op verzinsels. Ideaal voor analyses, e-mails of whitepaper-samenvattingen.</p>
<p>Hoog risico met hoog rendement vinden we bij 0,8 &#8211; 1,0: heet. Handig bij brainstorms, creatieve slogans, poëzie. Verwacht onverwachte invalshoeken en controleer dubbel op feitelijke onjuistheden.</p>
<h2>Temperature actief managen</h2>
<p>Denk bij de input na over de output. Werk je met feiten (fintech, pharma of bijvoorbeeld juridische documenten), zet je Temperature dan laag. De resultaten zullen zo reproduceerbaar en meetbaar zijn.</p>
<p>Heb je echter hogere creativiteit output nodig, verhoog dan de settings, maar bekijk eerst hoe hoog je moet gaan: een creatiever &#8211; en dus langer &#8211; antwoord kost meer denktijd &#8211; meer tokens &#8211; en resulteert dus in een hogere factuur. Een vriendelijke toon zonder dat je merk-stem teveel schommelt kan bijvoorbeeld een setting van 0,6 zijn. Dat kan al creatief genoeg zijn.</p>
<p>Houd altijd in gedachten dat een hogere instelling ook gekkere ideeën betekent. Briljante vindingen of klinkklare onzin: check afhankelijk van je doel altijd even of de output juist is. Bekijk ook welke temperatuur instellingen werken voor jouw doelstelling en log dit.</p>
<h2>Praktische workflow in 3 stappen</h2>
<ol>
<li>Definieer je doel: zoek ik een feit of een fantasie? Bepaal vooraf een numerieke waarde en schrijf die op in je prompt-doc.</li>
<li>Test 3 waarden: 0,2 &#8211; 0,6 &#8211; 0,9. Vergelijk de output op toon, lengte en foutratio. Bekijk welke output het beste aansluit bij de doelstelling.</li>
<li>Monitor en itereer: kijk bijvoorbeeld maandelijks of de output nog in je straatje past. Een nieuwe AI-taalmodel-release kan de Temperature-impact namelijk verschuiven.</li>
</ol>
<h2>Voorbeelden uit de praktijk</h2>
<ul>
<li>Recruiter: “Schrijf een LinkedIn-Inmail over deze vacature” met een Temperature van 0,3. Een lage setting, want het gaat om een feitelijk bericht.</li>
<li>Marketing slogan: “Bedenk 5 prikkelende taglines voor onze eco-startup” met een Temperature van 0,9. Je krijgt allerlei wilde suggesties, waarvan er eentje goud waard kan zijn.</li>
<li>Earnings-call-samenvatting (data heavy): “Vat de Q1-call samen in 4 bullets, citeer alleen de getallen”. De juiste Temperature hierbij is 0,1 want je zoekt alleen feitelijke quotes en geen creatieve gedachtenspinsels.</li>
</ul>
<h2>TL;DR</h2>
<p>Oftwel: too long, did not read: de tekst was te lang dus ik heb het niet gelezen. Zorg daarom voor een doordachte Temperature‑strategie.</p>
<ul>
<li>Lager voor zekerheid en consistentie</li>
<li>Hoger voor ideeën-explosies</li>
<li>Testen, loggen en periodiek bijschaven door nieuwe releases in de AI-taalmodellen</li>
</ul>
<p>Zo haal je het beste uit je AI-taalmodel, voorkom je nare verrassingen en lever je output die precies past bij jouw (content)doelen).</p>
<p>Benieuwd of dit ook voor jouw organisatie werkt? Neem contact met ons op!</p>
<p><a class="btn" href="/contact">Bel of mail ons</a></p>
<p>The post <a href="https://en-masse.nl/creatieve-ai-teksten-of-stug-om-te-lezen-bepaal-de-toon-met-temperature/">Creatieve AI-teksten of stug om te lezen: bepaal de toon met Temperature</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Onze nieuwe open-source code assistent</title>
		<link>https://en-masse.nl/onze-nieuwe-open-source-code-assistent/</link>
		
		<dc:creator><![CDATA[Sjoerd]]></dc:creator>
		<pubDate>Wed, 23 Apr 2025 14:11:25 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[AI-tools]]></category>
		<category><![CDATA[Developers]]></category>
		<category><![CDATA[Open source]]></category>
		<category><![CDATA[Privacy first]]></category>
		<category><![CDATA[Softwareontwikkeling]]></category>
		<category><![CDATA[TabbyML]]></category>
		<guid isPermaLink="false">https://en-masse.nl/?p=237</guid>

					<description><![CDATA[<p>Wij werken regelmatig met privacygevoelige gegevens. En we houden niet van verrassingen. Zeker niet als het gaat om waar onze data naartoe gaat. In beide gevallen gebruiken wij daarom TabbyML. <a href="https://en-masse.nl/onze-nieuwe-open-source-code-assistent/" class="more-link">Continue reading <span class="screen-reader-text">Onze nieuwe open-source code assistent</span></a></p>
<p>The post <a href="https://en-masse.nl/onze-nieuwe-open-source-code-assistent/">Onze nieuwe open-source code assistent</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Wij werken regelmatig met privacygevoelige gegevens. En we houden niet van verrassingen. Zeker niet als het gaat om waar onze data naartoe gaat. In beide gevallen gebruiken wij daarom TabbyML.</p>
<h2>Duidelijk datagebruik</h2>
<p>TabbyML is een open-source code assistent die volledig lokaal draait. Geen cloud, geen meekijkende AI-bedrijven, geen onduidelijkheid over datagebruik. Alles blijft bij En Masse. En dat voelt… goed.</p>
<p>We gebruiken TabbyML niet alleen als slimme helper bij het coderen, maar ook om gevoelige documentatie te doorzoeken of inzichten te genereren. Zonder iets te uploaden naar externe servers.</p>
<ul>
<li>Werkt snel</li>
<li>Leert van onze eigen codebase</li>
<li>Volledig in eigen beheer</li>
</ul>
<p>Het is alsof je je eigen ChatGPT hebt, maar dan eentje die nooit de deur uit gaat. En je kunt oneindig testen met verschillende modellen. </p>
<h2>Controle over AI</h2>
<p>We testen veel AI-tools. Sommige maken dingen sneller, andere maken dingen mooier. Maar TabbyML geeft vooral iets terug wat je zelden nog tegenkomt in de AI posts: controle.</p>
<p>Benieuwd of dit ook voor jouw organisatie werkt? Laat maar weten, we praten je graag bij over de setup en onze ervaringen.</p>
<p><a class="btn" href="/contact">Bel of mail ons</a></p>
<p>The post <a href="https://en-masse.nl/onze-nieuwe-open-source-code-assistent/">Onze nieuwe open-source code assistent</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Dynamisch onderhoud website cosmetische geneeskunde</title>
		<link>https://en-masse.nl/dynamisch-onderhoud-website-cosmetische-geneeskunde/</link>
		
		<dc:creator><![CDATA[Sjoerd]]></dc:creator>
		<pubDate>Wed, 23 Apr 2025 13:30:25 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Development]]></category>
		<category><![CDATA[Doorontwikkeling]]></category>
		<category><![CDATA[PHP]]></category>
		<category><![CDATA[Wordpress]]></category>
		<guid isPermaLink="false">https://en-masse.nl/?p=233</guid>

					<description><![CDATA[<p>Faceland, een toonaangevende keten in de wereld van cosmetische ingrepen, benaderde ons voor onderhoud en verdere ontwikkeling van hun bestaande website. De website, die bestond uit informatieve pagina’s, wisselende deals <a href="https://en-masse.nl/dynamisch-onderhoud-website-cosmetische-geneeskunde/" class="more-link">Continue reading <span class="screen-reader-text">Dynamisch onderhoud website cosmetische geneeskunde</span></a></p>
<p>The post <a href="https://en-masse.nl/dynamisch-onderhoud-website-cosmetische-geneeskunde/">Dynamisch onderhoud website cosmetische geneeskunde</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Faceland, een toonaangevende keten in de wereld van cosmetische ingrepen, benaderde ons voor onderhoud en verdere ontwikkeling van hun bestaande website. De website, die bestond uit informatieve pagina’s, wisselende deals en acties én een digitale agenda om als cliënt makkelijk behandelingen te kunnen boeken, is inmiddels uitgebreid naar meerdere landen en talen en wordt regelmatig doorontwikkeld. </span></p>
<h2><b>Over Faceland </b></h2>
<p><span style="font-weight: 400;">De ambitie van Faceland is betaalbare schoonheid. Cosmetische geneeskunde bereikbaar maken voor zo veel mogelijk cliënten en zorgprofessionals, met eerlijke prijzen en toegankelijke diensten. Faceland speelt zo een vooruitstrevende rol in de wereld van cosmetische behandelingen en chirurgische ingrepen. </span></p>
<h2><b>Optimalisatie van de gebruikerservaring</b></h2>
<p><span style="font-weight: 400;">Wij kregen de website van Faceland in volledig (technisch) beheer nadat hun eerdere technische partij stopte. We startten met af en toe, op regiebasis, doorvoeren van wijzigingen aan in deze WordPress-omgeving. </span></p>
<p><span style="font-weight: 400;">Tegenwoordig maken we, vanwege de groei van Faceland, meer technische ontwikkelingen door. We besteden nu wekelijks tijd aan updates en nieuwe technische features van de website. Ook werken we aan de optimalisatie van de gebruikerservaring door te kijken naar &#8211; ons favoriete component &#8211; data. Om pieken op te vangen hebben we samen met een van onze hostingpartners, gezorgd dat er is geïnvesteerd in een betrouwbare hostingomgeving.</span></p>
<h2><b>Onderhoudscontract met wekelijkse aandacht en ontwikkelingen</b></h2>
<p><span style="font-weight: 400;">We blijven werken aan verbeteringen en ontwikkelingen aan de website om te zorgen voor een optimale klantbeleving. Ook Faceland zelf blijft doorontwikkelen aan de website. Om alle verbeteringen gestroomlijnd door te kunnen voeren, sloot Faceland een urencontract bij ons af. Daardoor hebben we wekelijks een vast aantal uren en momenten met elkaar, om samen de website te blijven doorontwikkelen.</span></p>
<p><span style="font-weight: 400;">Van technische ontwikkelingen en ondersteuning gaat ons hartje sneller kloppen. Heb je ons nodig?</span></p>
<p><a class="btn" href="/contact">Bel of mail ons</a></p>
<p>The post <a href="https://en-masse.nl/dynamisch-onderhoud-website-cosmetische-geneeskunde/">Dynamisch onderhoud website cosmetische geneeskunde</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Maatwerk examenmanager software voor examencentrum</title>
		<link>https://en-masse.nl/maatwerk-examenmanager-software-voor-examencentrum/</link>
		
		<dc:creator><![CDATA[Sjoerd]]></dc:creator>
		<pubDate>Wed, 16 Apr 2025 13:09:24 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Custom made]]></category>
		<category><![CDATA[Exact Online]]></category>
		<category><![CDATA[Examenplatform]]></category>
		<category><![CDATA[Manager]]></category>
		<category><![CDATA[PHP]]></category>
		<category><![CDATA[Platform]]></category>
		<category><![CDATA[Symfony]]></category>
		<category><![CDATA[Wordpress]]></category>
		<guid isPermaLink="false">https://en-masse.nl/?p=229</guid>

					<description><![CDATA[<p>We ontwikkelden een examenmanager op maat voor Examenbureau ViAlex Nederland (EBVN) uit Hoogvliet. Zo stroomlijnen zij nu hun omvangrijke examenadministratie. Over Examenbureau ViAlex Nederland EBVN is een zelfstandig en onafhankelijk <a href="https://en-masse.nl/maatwerk-examenmanager-software-voor-examencentrum/" class="more-link">Continue reading <span class="screen-reader-text">Maatwerk examenmanager software voor examencentrum</span></a></p>
<p>The post <a href="https://en-masse.nl/maatwerk-examenmanager-software-voor-examencentrum/">Maatwerk examenmanager software voor examencentrum</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>We ontwikkelden een examenmanager op maat voor Examenbureau ViAlex Nederland (EBVN) uit Hoogvliet. Zo stroomlijnen zij nu hun omvangrijke examenadministratie.</p>
<h2><b>Over Examenbureau ViAlex Nederland</b></h2>
<p><span style="font-weight: 400;">EBVN is een zelfstandig en onafhankelijk examencentrum dat is gespecialiseerd in het afnemen van examens rondom veiligheid, gezondheid, milieu en ICT. Het examencentrum biedt klanten een uniek aanbod van examenmomenten: de klant kiest namelijk zelf een datum, tijdstip en locatie van een examen. Uitslagen van examens zijn persoonsgebonden en blijven vertrouwelijk. </span></p>
<h2><b>Custom made examenmanager met PHP en Symfony</b></h2>
<p><span style="font-weight: 400;">De examenadministratie was nogal uitgebreid en omvangrijk en het bijhouden en verwerken van alle informatie rondom examens, locaties, uitslagen, examinatoren, klanten, kandidaten en diploma’s kostte EBVN veel handelingen en veel tijd. Sommige processen waren al geautomatiseerd; andere kostten de medewerkers van EBVN zelf nog veel tijd.</span></p>
<p><span style="font-weight: 400;">Wij keken mee in het proces van de examens. Hoe begon en verliep het proces? Hoe verwerkte EBVN alle informatie en administratie? Wat moest er gebeuren voordat een kandidaat een examen maakte en zijn diploma behaalde?</span></p>
<p><span style="font-weight: 400;">Wij werden gelijk enthousiast van deze omvangrijke operatie met zoveel verschillende componenten. We kwamen tot een plan om de klant veel werk uit handen te nemen en ontwikkelden een examenmanager op maat in PHP en Symfony met koppelingen naar onder andere Exact Online, WordPress en agenda’s van externe examenlocaties.</span></p>
<h2><b>Inhoud van het examenmanager platform</b></h2>
<p><span style="font-weight: 400;">Het platform van EBVN omvat momenteel onder andere de volgende features:</span></p>
<ul>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">inloggegevens en profielen voor zowel eigen medewerkers als voor klanten met grote teams die regelmatig examens aanvragen en kandidaten inschrijven.</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">centrale database met klantgegevens en informatie over zowel interne als externe examenlocaties (alleen zichtbaar voor eigen medewerkers van EBVN).</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">exameninformatie, inclusief data, met een overzicht van examens die op dezelfde locatie worden georganiseerd.</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">ondersteunende documenten per examen.</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">mogelijkheid tot het genereren en communiceren van pasjes en diploma’s voor kandidaten die hun examen succesvol afgerond hebben.</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">verzenden van examenresultaten naar klanten en het Centraal Diploma Register (CDR).</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">integratie met Exact Online voor het efficiënt klaarzetten van facturen.</span></li>
</ul>
<p><span style="font-weight: 400;">Wij knopen met de examenmanager alle processen aan elkaar, maken ze grotendeels geautomatiseerd en zorgen voor een gestroomlijnd platform waar het bedrijf nu dagelijks succesvol mee werkt. </span></p>
<h2><b>Onderhoudscontract met maandelijkse aandacht en updates</b></h2>
<p><span style="font-weight: 400;">Na oplevering van de examenmanager was het werk voor En Masse nog niet gedaan. We blijven nieuwe features ontwikkelen en verwerken én zorgen voor onderhoud van de examenmanager, om de omgeving veilig en goed werkend te houden.</span></p>
<p><span style="font-weight: 400;">Ook EBVN zelf blijft ontwikkelingen aan het platform signaleren. Bijvoorbeeld bij updates van procedures of diploma’s. EBVN sloot daarom een onderhoudscontract bij ons af; zo hebben we elke maand een vast aantal uren en momenten om de examenmanager door te blijven ontwikkelen naar wensen van de klant en eisen van de branche en de veiligheid.</span></p>
<h2><b>Interface met AI zoekfunctionaliteit</b></h2>
<p><span style="font-weight: 400;">Omdat EBVN, en ook wij, niet stilstaan, zijn we op dit moment bezig met een nieuwe iteratie van de applicatie. Een iteratie waarbij gebruikers sneller en slimmer kunnen werken met mogelijkheden om de interface te tweaken naar de eigen behoefte en we ook een AI gedreven zoekfunctionaliteit implementeren.</span></p>
<h2><b>Custom made door En Masse</b></h2>
<p><span style="font-weight: 400;">Van het bouwen van custom made platformen en applicaties gaat ons hartje sneller kloppen. Heb je ons nodig? </span></p>
<p><a class="btn" href="/contact">Bel of mail ons</a></p>
<p>The post <a href="https://en-masse.nl/maatwerk-examenmanager-software-voor-examencentrum/">Maatwerk examenmanager software voor examencentrum</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Wat is MCP en waarom ondersteunt OpenAI het nu?</title>
		<link>https://en-masse.nl/wat-is-mcp-en-waarom-ondersteunt-openai-het-nu/</link>
		
		<dc:creator><![CDATA[Sjoerd]]></dc:creator>
		<pubDate>Wed, 02 Apr 2025 13:54:12 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[Automatisering]]></category>
		<category><![CDATA[Data]]></category>
		<category><![CDATA[Koppeling]]></category>
		<category><![CDATA[MCP]]></category>
		<category><![CDATA[Protocol]]></category>
		<guid isPermaLink="false">https://en-masse.nl/?p=216</guid>

					<description><![CDATA[<p>Vorige week kondigde OpenAI aan per direct MCP-integraties te ondersteunen. Dit nieuwe Model Context Protocol (MCP) is een standaard die AI-agents een flinke boost geeft: het fungeert als een communicatiebrug <a href="https://en-masse.nl/wat-is-mcp-en-waarom-ondersteunt-openai-het-nu/" class="more-link">Continue reading <span class="screen-reader-text">Wat is MCP en waarom ondersteunt OpenAI het nu?</span></a></p>
<p>The post <a href="https://en-masse.nl/wat-is-mcp-en-waarom-ondersteunt-openai-het-nu/">Wat is MCP en waarom ondersteunt OpenAI het nu?</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Vorige week kondigde OpenAI aan per direct MCP-integraties te ondersteunen. Dit nieuwe Model Context Protocol (MCP) is een standaard die AI-agents een flinke boost geeft: het fungeert als een communicatiebrug tussen AI en externe systemen.</p>
<p>Sam Altman, CEO van OpenAI, kondigde het persoonlijk aan: OpenAI ondersteunt nu ook MCP-integraties. MCP is beschikbaar in de Agents SDK en binnenkort ook in de desktop-app van ChatGPT en Response API. Een hele mond vol maar lees gauw verder.</p>
<h2>Hoe werkt MCP?</h2>
<p>Een voorbeeld: jij leest op je computer (host), met je browser (client), deze post op LinkedIn. Je browser heeft hiervoor een verzoek gestuurd naar de LinkedIn-server en die server stuurde de webpagina terug naar jouw browser.</p>
<p>Dit is precies wat een AI-toepassing ook doet: hij fungeert als host (de computer uit het voorbeeldje hierboven) en gebruikt een MCP-client (bijvoorbeeld de browser uit het voorbeeldje) om verzoeken te sturen naar MCP-servers (bijvoorbeeld de LinkedIn-server). De server verwerkt het verzoek en stuurt een resultaat terug. Op deze manier kunnen AI-modellen met externe systemen communiceren.</p>
<p>Een ander voorbeeld. Wij krijgen geautomatiseerd een bug report binnen van een klant. De AI-agent analyseert de bug, bepaalt de prioriteit, doet een voorstel qua oplossingsrichting en legt deze aan ons voor via ons interne communicatiekanaal. De MCP koppelt in dit geval onze bugtracker, de analyse en ons communicatiekanaal aan elkaar, zodat wij direct tot (de juiste) actie over kunnen gaan.</p>
<p>Nog een voorbeeld. Je schrijft in ChatGPT of Claude AI een artikel over vakantie in Frankrijk. Je kunt dankzij een MCP-integratie (bijvoorbeeld de MCP voor Google Maps) realtime de temperatuur en weersverwachting van de komende 7 dagen in je artikel laten verwerken. Geen oude data waarop de AI getraind is (bijvoorbeeld: in de zomer is het altijd warm), maar real time data (bijvoorbeeld: de windrichting verandert dus woensdagmiddag wordt het niet warm maar fris). Ben je vervolgens tevreden over je artikel in ChatGPT? Laat de MCP voor Google Drive het direct opslaan in je Persoonlijke Drive.</p>
<h2>Waarom MCP?</h2>
<p>AI-toepassingen hebben vaak toegang nodig tot externe informatie en tools. MCP-integraties zorgen voor een uniforme manier van data ophalen of acties uitvoeren, zonder dat er per tool een aparte integratie benodigd is.</p>
<p>Microsoft noemt MCP de “USB-C voor AI”: het helpt AI-modellen om niet langer geïsoleerd te werken, maar om zich te ontwikkelen tot systemen met meer context en meer interactie.</p>
<h2>MCP in actie</h2>
<p>De Model Context Protocollen zijn de nieuwe bouwstenen voor AI-toepassingen. Wil je zien welke MCP-integraties wij gebruiken?</p>
<p>Check deze lijst: <a href="https://github.com/modelcontextprotocol/servers" target="_blank" rel="noopener">GitHub: Model Context Protocol Servers</a></p>
<p>We kunnen hiermee eenvoudiger koppelen aan CRM-systemen, automatische rapportages genereren en interacties aangaan met externe diensten.</p>
<p>Anthropic, het bedrijf achter Claude AI, lanceerde deze nieuwe standaard al eerder en dat OpenAI het nu ook omarmt, betekent dat MCP-integraties een blijvertje zijn. De toekomst van AI wordt een stuk slimmer en veelzijdiger.</p>
<p>The post <a href="https://en-masse.nl/wat-is-mcp-en-waarom-ondersteunt-openai-het-nu/">Wat is MCP en waarom ondersteunt OpenAI het nu?</a> appeared first on <a href="https://en-masse.nl">En Masse - niet mauwen maar bouwen</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
