Now Reading
HPE will die verborgenen Fakten-Schätze endlich Hebung​

HPE will die verborgenen Fakten-Schätze endlich Hebung​

HPE will die verborgenen Daten-Schätze endlich heben​

[ad_1]

Die Datenbestände wachsen weiter explosionsartig. Hewlett Packard Enterprise (HPE) meint, dass es solange bis 2025 obig 175 ZByte sein werden. Doch die wirtschaftliche Datennutzung hinkt diesem Wuchs weit nachher. So gesehen hat dasjenige Unternehmen mit dem Marktforschungsinstitut YouGov eine Umfrage vorgenommen, um herauszufinden, wie es heutig um die viel gepriesenen Datenschätze und deren Nutzung tatsächlich steht. Dies Ergebnis ist vernichtend: Jener durchschnittliche globale Datenreifegrad, danach die Fähigkeit, aus Fakten Mehrwert zu generieren, liegt gen einer 5-Punkte-Skala nur nebst 2,6 – in Deutschland sogar nur nebst 2,4. Nur drei von Hundert aller befragten Unternehmen gelingen den höchsten Reifegrad von 5,0.

Eine welcher Ursachen zum Besten von die schlechte Datenverwendung ist laut HPE-Geschäftsführer Antonio Neri dasjenige Fehlen wichtiger Technologien und Tools, um z. B. Fakten in hybriden Multi-Cloud-Umgebungen effizient zu nutzen und sie siegreich in Analyseprojekten einzusetzen. Die Reaktion seines Unternehmens darauf ist die GreenLake-Plattform, die mit einem einheitlichen Betriebsmodell dasjenige Management welcher Fakten obig sämtliche Standorte, Rechenzentren und Clouds hinweg zuteil werden lassen soll. „Aufgrund des massiven Datenwachstums an welcher Randbezirk benötigen die Unternehmen heute hybride Edge-to-Cloud-Architekturen, nebst denen die Cloud zu den Fakten kommt und nicht umgekehrt“, so Neri weiter. Laut HPE sind inzwischen 50 Milliarden IoT-Geräte vernetzt. So gesehen würde welcher Prozedur „Public Cloud First“ nicht mehr laufen.

Um die Datennutzung von GreenLake weiter zu verbessern, stellte dasjenige Unternehmen aus Anlass einer Kundenveranstaltung in Frankfurt an der Oder ein ganzes Knäuel an Neuheiten und Erweiterungen vor. Um die Leistung geschäftskritischer Anwendungen zu steigern, gibt es künftig in Bezug auf optimierte Instanzen: Vier-Sterne-General Purpose, Compute, Memory und Storage – sämtliche zum Besten von eine verbrauchsabhängige Bilanz.

Ein neues Analysetool verbessert die Nutzung und senkt die Preis von Anwendungen nebst den drei Hyperscalern AWS, Azure und Google Cloud. Zusammenhängen ein Showback-Reporting und ein Dashboard, dasjenige die Kapazitätsplanung und Budgetierung verbessert. HPE kündigte außerdem optimierte Workloads zum Besten von Speicher, Rechenleistung und Random Access Memory an, die mit AWS, Azure und GCP verknüpft sind; ein Musterbeispiel zu diesem Zweck ist SAP Sulfur/4HANA. Sogar die im November angekündigten Integration von VMware gehört zu den aktuellen Erweiterungen. Nun wird VMware vollwertig in dasjenige GreenLake-Portfolio integriert, sodass es on Premises, in Colocation-Einrichtungen oder an welcher Edge genutzt werden kann.

HPE hat GreenLake vor vier Jahren gestartet. Inzwischen nutzen mehr denn 65 000 Kunden mit obig zwei Mio. Geräten die Plattform und greifen dieserfalls gen rund ein Exabyte an Fakten zu. Die Zufriedenheit sei hoch: HPE berichtet von einer Kundenbindungsrate von 96 von Hundert. Neben GreenLake gibt es noch ähnliche Angebote von Dell (Apex) und Cisco (Cisco+). Jedweder Angebote sind jedoch sehr proprietär, keines bietet eine einheitliche Managementkonsole an, obig die genauso konkurrierende Plattformen – sozusagen Multi-Private-Clouds – gemanagt werden können.

Ob die mangelnde Datennutzung im Business tatsächlich nur ein technologisches Problem ist, darf trotzdem bezweifelt werden. Dies liegt zunächst an dem von HPE selbst forcierten Tafelgeschirr-Trend. „Die Kunden fragen nachher SLAs – nicht nachher welcher zugrundeliegenden Technologie“, bestätigt Neri. Viele Datenwissenschaftler sehen trotzdem eine noch viel größere Schwierigkeit: dasjenige mangelnde Verständnis zum Besten von Fakten. Stichwort: Datenkompetenz, oder tendenziell Dateninkompetenz.

„Datenkompetenz ist eine welcher wichtigsten Voraussetzungen zum Besten von jede Digitalisierungsstrategie“, heißt es genauso in einem Gartner-Report, welcher gen einer Umfrage unter Chief Data Officers (CDO) basiert. Nun kam hervor, dass 80 von Hundert welcher CDOs die mangelnde Datenkompetenz in ihrer Firma denn größtes Hindernis zum Besten von ihre Arbeit sehen. Dies deckt sich mit einer Umfrage von New Vantage Partners, worauf 92 von Hundert welcher Manager welcher Meinung sind, die Herausforderungen zum Besten von ein datengetriebenes Unternehmen seien kulturell den Umständen entsprechend – nur acht von Hundert sagten dasjenige obig Technologien.

Gleiches trifft gen die KI-gestützte Datennutzung zu. Bernd Bachmann, KI-Unternehmensberater nebst HPE, weiß um dieses Problem. Er betrachtet sechs Variable, um die Datennutzung in Unternehmen zu messen: die Strategie, die Organisation, dasjenige Umfeld, welcher Datenlebenszyklus, die Analytics und die Modus welcher Datennutzung. Insgesamt in Besitz sein von zu seiner Mess-Methode 80 solange bis 90 Einzelkriterien.

Dies ist ein guter Startpunkt zur Festsetzung welcher Ist- und Soll-Zustände, die entscheidende Frage ist jedoch, wie die Transformation vom Ist- zum Zielzustand gelingt. Da, so Bachman, brauche man zusammensetzen Stakeholder, welcher im Unternehmen ziemlich weit oben angesiedelt sei und welcher nicht nur zum Besten von IT zuständig sei, sondern genauso die entsprechende Möglichkeit habe, um sämtliche erforderlichen Maßnahmen umzusetzen. Seine Methodik ist noch relativ neu, bislang wurden erst vier Projekte damit siegreich durchgeführt. Doch er ist optimistisch, dass sich die Nutzung welcher Fakten, sei es in Form von Analytics oder denn KI, weiter durchsetzen wird.

Mehr von iX Magazin

Mehr von iX Magazin

Mehr von iX Magazin

Mehr von iX Magazin



()

[ad_2]
View Comments (0)

Leave a Reply

Your email address will not be published.

Scroll To Top