Als het over duurzaamheid gaat bij digitale innovaties, gaat het hoofdzakelijk over hoe we het betaalbaar houden. Zeker in de zorg is dat het geval. Oplossingen die de zorg sneller en goedkoper maken, heten dan innovatie. Maar de betaalbaarheid van de zorg – en andere sectoren – verbleekt bij het grootste vraagstuk van onze tijd: hoe pareren we existentiële bedreigingen als klimaatverandering en milieuvervuiling?
De Nederlandse innovatiekracht zou zich daar veel meer op moeten richten dan nu het geval is. Als bedrijven en organisaties hun duurzaamheidsdoelen willen bereiken, ontwrichtingen willen voorkomen en de beveiliging van hun data en systemen willen verbeteren, zullen ze anders moeten gaan denken en werken.
In de huidige spannende tijd staan we voor drie belangrijke uitdagingen. De eerste uitdaging is werken op afstand, ook als er een einde is gekomen aan de coronapandemie. Thuis of op afstand werken kan zeker niet in alle situaties en voor alle beroepen, maar de toekomst van werk zal voor veel organisaties komen te liggen in het vermogen om altijd en overal veilig toegang te krijgen tot de bedrijfsapplicaties en -gegevens. Dit kan de kans op cybersecurity-incidenten zoals hacks en ransomware-aanvallen vergroten, als er geen aanvullende maatregelen worden genomen. De tweede grote uitdaging heeft te maken met de uitdagingen in de toeleveringsketen en het wereldwijde tekort aan chips. Tot slot is er een toenemende belangstelling voor duurzaamheid in vrijwel alle sectoren. In het streven om de ecologische voetafdruk te verkleinen en net zero te worden, is hybride werken een aantrekkelijke oplossing geworden. Zo is er minder woon-werkverkeer, een kleinere CO2-voetafdruk op kantoor, minder hardware en juist meer software en data die in de cloud worden gehost. Dit levert allemaal een zinvolle, positieve bijdrage aan duurzaamheid.
Niet meer update-gedreven
Een ding is duidelijk: door de klimaatverandering en milieuvervuiling kunnen we de dingen niet blijven doen zoals we al die tijd hebben gedaan. We zullen af moeten van het upgrade-gedreven systeem van pc-fabrikanten en organisaties en bedrijven die hun technologie kopen. De beslissing om hardware niet voortdurend te upgraden, kan de sleutel zijn tot een toekomstbestendige onderneming. De levensduur van een bestaande pc kan zo met ten minste twee jaar worden verlengd. Een organisatie met drieduizend werkplekken kan op die manier veertig procent besparen op haar CO2-voetafdruk. Om dat te doen, moeten bedrijven zich losmaken van hun afhankelijkheid van een traditioneel, lokaal geïnstalleerd Microsoft-besturingssysteem en Windows vanuit de cloud gaan gebruiken. We hebben het dan over desktop-as-a-service (daas), waarbij gebruikers toegang krijgen tot virtuele desktops vanuit het datacenter of de cloud.
Flinke groei daas
Er zijn vandaag de dag ongeveer honderd miljoen cloud-delivered desktops in gebruik en de verwachting is dat dit in de komende drie jaar met vijftig procent zal toenemen. Onderzoeksbureau Gartner voorspelt dat een derde van de desktops die gebruikmaken van virtual desktop infrastructuur (vdi) in 2023 daas zullen zijn.
Door het besturingssysteem in de cloud te laten draaien, zijn niet alleen gegevens inherent veiliger, maar zijn gebruikers minder afhankelijk van de actualiteit van hun hardware, zodat er ook een minder dringende noodzaak is om software en laptops te upgraden. Het maakt hierbij niet uit waar of op wat voor soort device je werkt of van welk virtualisatieplatform je gebruik maakt: Amazon Workspaces, Citrix Workspace, Microsoft AVD of VMWare Horizon, het kan allemaal.
In de jaren tachtig van de vorige eeuw was het toppunt van technologische innovatie een Rubiks Cube, de Sony Walkman en een Windows-pc. Nu vermaken we ons met Candy Crush, Spotify en… een Windows-pc. Waarom die laatste nog steeds hot is en naar verwachting ook blijft? Met de overstap naar daas en vdi kan de manier waarop de wereld in de toekomst moet werken eindelijk gelijke tred houden met andere innovaties. En last but not least: de planeet wordt beschermd!
Het idee dat VDI/DaaS groener is dan een (Windows)PC die je uitzet als je deze niet gebruikt lijkt me een stelling die ik graag bewezen zie. Tenslotte is er niet alleen een server component welke altijd aan moet staan maar er is ook nog een netwerk welke eveneens stroom verbruikt zoals ook een thin client inclusief monitor. Kortom, ik zie CO2-footprint van dit soort oplossingen nog niet zo snel dalen als we de verwerking alleen maar verschuiven en niet veranderen. Dat lijkt me de schone schijn van ‘window dressing’ door alleen je eigen loket groen te verven. En het idee van overal en altijd kunnen werken middels de cloud zorgt dan ook voor een wedloop welke uiteindelijk steeds meer energie vraagt.
De opmerkelijke heruitvinding van de ‘airgap’ is wat dat betreft zoiets als Girotel in de jaren 80 over een 2400 kbps modem via POTS. Die batch middels een offline verwerking zonder eye candy blijkt dan ook bijzonder efficiënt te zijn als we naar de totale keten kijken.
Ha oudlid, je bent minder kritisch op je hybrid cloud stokpaardje. Want als 1 cloud al niet zo groen is, waarom dan 2 ? En zo te lezen zijn de client/server oplossingen zowiezo al een achteruitgang. Heb je client, server en netwerk nodig..
Mooie uitvinding was dat toch, de Personal Computer, die je uitzet als je deze niet gebruikt.
Dino,
De hybride cloud is feitelijk dan ook offline werken binnen een eigen bubbel waarbij je de resources dynamisch in kunt zetten. En wat betreft die bubbel vergeet je nog mijn stokpaardje software-defined middels virtualisatie of containers waarbij loopback adapter voor het client-server model zorgt want huidige thin client is veelal de browser aangezien de inzet van VDI veelal op de status quo van de oude applicatieset gericht is waardoor dat blijven hangen bij Windows dus niet zo vreemd is.
Wij van WC-eend zullen het niet over de applicatie modernisatie gaan hebben maar wijzen enkel op het gegeven van Edge Computing. Kortom, een ander paradigma welke (voor mij) veel lijkt op oude down- en uploaden. Van NetFlix terug naar binairy nieuwsgroepen zullen we maar zeggen want aangaande de kosten is er ook nog zoiets als het eigenaarschap van de toegang tot Internet, de hardware, de software en de uiteindelijke (bedrijfs)data.
Offline werken binnen je eigen bubbel, now we’re talking 🙂
het nieuwe werken, er is veel gebeurd sinds corona, stroomverstelling enzo..
loopback adapter als client-server model ?
alsof alles op 1 host draait met de enduser webbrowser erbij.
edge computing op zn smalst.
maar sun zei het al : the network is the computer.
hyperconverged cloud appliance op een pc, handig.
kun je ook uitzetten.
Dino,
Web-enabled, als de term nog gebruikt wordt, gaat om een programma dat een deel (of alle) verwerking op de computer van de gebruiker uitvoert voordat de uitvoer naar het web wordt geüpload wat dus iets anders is dan web-based waar de verwerking verschoven wordt. Een voorbeeld van web-enabled is een content management systeem waarbij je via ‘achterdeurtje’ van import de upload van data kunt doen om vervolgens de presentatie aan de voorkant op maat te maken voor de client. Ik zou het niet over applicatie modernisatie hebben maar aangaande de obesitas in protocollen is dat echter wel iets om over na denken omdat een publiek netwerk zonder QoS als een rietje is waar je een olifant doorheen probeert te zuigen. Dus ja, vanuit het idee van (micro)services is het netwerk de computer hoewel taalkundig de term systeem passender is.
Zo’n systeem kun je in één fysieke doos stoppen met de logische scheiding via virtualisatie waarbij het netwerk zoals in Vbox een intern netwerk wordt op basis van loopback adapters om een bubbel te maken. En die doos kan tegenwoordig een laptop zijn om je mainframe draagbaar te maken wat qua dimensionering natuurlijk beperkt in het gebruik is maar duurzamer dan een demo in de cloud die niet gebruikt wordt. Dus ja, een hyperconverged cloud appliance op de PC kan vanuit verschillende business cases handig zijn want offline werken binnen je eigen bubbel is niet ongebruikelijk binnen een OTAP omgeving. Zeker niet als je CMS een soort van GitHub is waar je sources uit download om ze na aanpassing weer te uploaden want wat betreft innovatie doen we vaak gewoon hetzelfde met andere middelen;-)
Vroeger deden we alles “gewoon hetzelfde” komt al redelijk in de buurt van beter.
github is een typische public cloud toepassing, extern gehost. jan zou daarom gitea zelf hosten, op aparte server.
git is een distributed version control system met sources die meestal iets builden en branches die de samenhang van die sources binnen een repo borgen.
cms managed gewoon content.
blijft wonderlijk, je oplossing voor de patriot act 😛
dat je client/server/workstation op 1 laptop past en dan hybrid cloud aanbevelen, wel zeuren over obesitas aan protocollen.
vroeger lachten we als een user ons vroeg om “het internet” even op een floppy te zetten, maar daarmee bedoelden ze wel alleen de toegangs programmas.
en ja dat voordeel van hybrid burstingcloud, ook die kun je uit zetten. sterker nog, dat staat die al 🙂
als de verkoper die beweerde dat zijn hersens zo goed als nieuw waren.
nog nooit gebruikt.
Die Dino, altijd stipt op de definities alleen had ik het over een systeem. Want als het kwaakt als een eend, waggelt als een eend en zwemt als een eend dan is het veelal een eend aangezien er niet zo veel verschil zit tussen Systems of Collaboration zoals GitHub voor code of een CMS voor content:
“Een systeem is een entiteit die is samengesteld uit meerdere kleinere maar met elkaar samenhangende of op elkaar inwerkende componenten die door relaties samenhang en ordening vertoont.”
Tot zover de definitie want die samenhang en ordening is eenvoudig te verstoren, wat betreft het schudden van de kaarten hoef je alleen maar de records in een System of Record door elkaar te husselen om van stuctuur naar chaos te gaan. Je hebt er dan ook van die etters bij die de onschuldige lijkende content van een klein script uploaden via minder bekende of oude protocollen zoals (S)FTP als het om Jan met zijn oude BBS (CMS made simple?) gaat. Code is tenslotte net zo goed content en wat betreft het heen en weer schuiven van dezelfde content/code met een andere delivery model gaat de overtreffende trap van beter niet alleen om een ijkpunt waar je mee vergelijkt maar ook een kwaliteitsattribuut want uiteindelijk kun je niet alles kiezen. Nieuwe kwaliteitsattribuut is groener welke je misschien kunt combineren met makkelijker of goedkoper maar niet met makkelijker en goedkoper.
Ja, als je alleen kijkt naar de fruit overeenkomsten kun je appels goed met peren vergelijken.
Zie zenos paradox van achilles en schildpad, juist bij systemen gaat het om de scope.
Dat code op zich ook data is en dat data husselen tot chaos kan leiden lijkt eerder van vervroegde borreldiscussies te komen dan uit een boek van Douglas Hofstadter.
on topic, vanavond proosten we op klimaat en milieu.
Precies wat ik zeg Dino. In een vergelijk zoals de overtreffende trap moet je inderdaad appels met appels vergelijken en dat doe je niet door alles op één hoop te gooien om er op je gebruikelijk manier over heen te plassen. Verder zit er geen woord latijn in de opmerking dat code ook gewoon content is en alle content uiteindelijk data welke verwerkt wordt door computers.
Principe van een CMS werkt namelijk zo als je kijkt hoe (dynamische) content door code gepresenteerd wordt, rechtermuisknop op deze pagina om de obesitas van alle opmaak te zien. Wat betreft de client- en server-side scripting aangaande chaos is de borreldiscussie dus eerder een keus in de browser, ik gebruik nog altijd telnet wat gebruik jij?
Geintje, ik gebruik natuurlijk een webcrawler om in de hooiberg de speld te vinden door alle obesitas van de ‘eyecandy’ zoals zinloze grafische elementen te verwijderen. Geen sci-fi maar hedendaagse datasynthese waarbij je bepaalde sleutelwoorden voor de indexering gebruikt en dezelfde techniek kun je natuurlijk ook gebruiken voor code.
En wat betreft het husselen van data kun je daar bijvoorbeeld content mee anonimiseren zoals mijn anonieme donaties aan deze gemeenschap in de vorm van opinies. Aangaande de scope van systemen een niet onbelangrijke functionaliteit als we kijken naar hedendaagse datasynthese via het rechercheren in open bronnen, altijd handig voor het onthusselen van de chaos.
Telnet is lightweight tcp en geen probleem in een trusted netwerk, zoals je vertrouwde on prem lan.
opmerkelijk dat juist jij komt met obesitas van eyecandy als ik jouw dichterlijke reacties lees, maar je heb gelijk. ik mag er graag over zeiken.
dat code de eigenschap heeft dat het zelf ook als data kan worden opgeslagen is geen briljante gedachte.
je opinie is dus geen donatie maar een (_!_), every body has one and they all stink.