Google lanceert wereldwijd zijn Cloud Storage Nearline service. Het betreft een goedkope en eenvoudige dienst met een up-time van 99 procent om bestanden op te slaan die een gebruiker niet meteen nodig heeft. Dus voor data backup, archivering en recovery. Om bedrijven te verleiden over te stappen biedt Google gedurende zes maanden honderd petabytes (honderd miljoen gigabytes) aan gratis opslagruimte. Voorwaarde is wel dat het bedrijf minimaal één petabyte gedurende viftien maanden opslaat bij Google.
Buiten de doelgroep kan het dus gezien worden als een mooie marketingstunt. Het aanbod geldt niet alleen bij overstap van een cloud service provider zoals Amazon maar ook bij overstap van een lokale backup-oplossing. Voor de overstap kunnen bedrijven gebruikmaken van de Google Cloud Transfer service, die het makkelijker maakt om gegevens van andere storage-aanbieders te migreren.
Concurrentie
Zowel Google Nearline als directe concurrent Amazon Glacier bieden prijzen van een dollarcent per gigabyte per maand. Google Nearline maakt voor de data-opslag gebruik van harddisk en flash technologie, daar waar Amazon Glacier vertrouwt op Blu-ray. Hierdoor kan Google Nearline data binnen enkele seconden restoren, daar waar Amazon Glacier enkele uren restoretijd nodig heeft.
Microsoft’s Azure beschikt niet over een dienst zoals Glacier of Nearline, maar heeft met Azure Site Recovery, een oplossing gericht op disaster recovery. De dienst is ook een aanval op de traditionele (tape) backup-leveranciers. Want met deze prijzen zullen bedrijven steeds vaker kiezen voor cloud dataoplag.
Race to zero
Google introduceerde recent in de consumentenmarkt al de Google Foto’s app met gratis onbeperkte cloud opslag. Dit is wat men in de sector de ‘race to zero’ noemt, met goedkope dataopslag die in overvloed beschikbaar is. Het is een gevaarlijk spel, waarbij de focus ligt op het verkrijgen van meer klanten door basisdiensten bijna weg te geven. Dit betekent dat alleen de grootste leveranciers met de diepste zakken succesvol zijn in de cloud.
Na het vergroten van het marktaandeel, worden klanten verleidt om toegevoegde waarde-diensten af te nemen om zo de omzet te verhogen. Denk daarbij aan extra veiligheid rondom bestanden en de bouw van toepassingen zoals document management.
Het is de vraag of dit volstaat om de miljarden die geïnvesteerd worden in de datacenters op termijn terug te verdienen? Een vraag die alleen de tijd zal leren…
Amazon Clouddrive biedt inmiddels unlimited (!) storage aan, slechts 60 dollar perjaar
Vieze plaatjes, heel erg veel vieze plaatjes! 🙂
De gedecentraliseerde cloudopslagnetwerken zijn volop in ontwikkeling en staan voor de deur; zodra Storj, maidsafe en ipfs volwassen zijn kunnen alle commerciële opslag diensten inpakken.
Let even op de kleine lettertjes want naast schrijfkosten worden ook leeskosten in rekening gebracht, $0,01 per GB want gratis is betrekkelijk. Verder betwijfel ik of race naar het putje ingezet is omdat 3 seconden latency natuurlijk gewoon om de mechanische vertraging van een Storagetek tapesilo kan gaan, near-line principe is tenslotte niet nieuw.
100PB is trouwens nogal een olifant om door de lijn heen te drukken, denk dat je meer dan 6 maanden hiervoor nodig hebt als ik even kijk naar de lessen met Katrina en Nirvanix. Dit is geen marketingstunt maar misleiding want de ‘last mile’ uitdaging zorgt ervoor dat tot op heden nog steeds containers vol met SATA disks per schip gaan. Tot op heden is de strijd rond ‘netneutraliteit’ namelijk nog niet eens beslecht.
Ewout,
Voor archivering kan dit misschien wel leuk zijn. Maar voor disaster recovery zal bandbreedte weer een beperkte factor zijn.
Ik heb tijden geleden een handig rekenmodeltje gemaakt hoe lang het duurt om data met een dagelijkse changerate van 5/10/20% over de lijn te trekken.
Voor 1 PB over een 1 Gbe lijn met een 5% changerate ben je zeer conservatief en veilig gerekend 582 uur kwijt (24 dagen ) om het eruit te trekken/terug te halen.
Hopelijk zal er iets slims onder water gedaan worden (dedup/WAN optimalisatie ).
Zolang je het in de Cloud restored zal het nog wel schappelijk zijn. Wil je het ergens buiten de wolken doen dan gaat bandbreedte weer een beperkende factor zijn waar je rekening mee moet houden. Dus classificeer goed op basis van je RTO of het gaat passen of niet.
https://www.computable.nl/artikel/opinie/cloud_computing/4463114/2333364/bandbreedte-nog-te-vaak-ondergeschoven-kindje.html
Ruud,
Als eerste zet ik grote twijfels bij de business case zelf, al je eieren in het mandje bij Google lijkt me vanuit risico spreiding niet erg verstandig. Technisch liggen de uitdagingen vooral in het netwerk, dit soort volumes over de geografische data domeinen spreiden voedt namelijk de discussie over netneutraliteit.