Virtualisera maskininlärning med hjälp av VMware Bitfusion

De senaste åren har användningen av olika typer av Artificiell Intelligens ökat markant i form av bl.a. neurala nätverk och maskininlärning. Tillämpningar finns inom många olika områden med krav på stora datamängder som t.ex. handel, trafikplanering, aktieanalys och bildtolkning, områden som också i flera fall går in i varandra.

Många av tillämpningarna kräver stora beräkningsresurser och det är vanligt att utvecklare efterfrågar kraftfullare maskiner för AI-projekt, gärna fullmatade med GPUer för att korta tiden för modellkörningar, och i slutändan leverera resultat snabbare.

  • Önskar ni använda era befintliga GPU-resurser mer effektivt?
  • Har ni obalans mellan GPU-resurserna som används för utveckling, test och produktion?
  • Är du nyfiken på hur virtualisering kan användas effektivt för maskininlärning och andra GPU/accelerator-användande applikationer?

Om någon eller några av dessa frågor är relevanta för dig så är vårt webinar kring VMware Bitfusion intressant för dig!

Under detta webinar kommer vi att gå igenom:

  • Behovet av GPU och andra accelerator-resurser inom datacenter, långt mer än för grafiktunga applikationer
  • Utmaningar att matcha behov, önskemål mot budget och befintliga resurser
  • Hur virtualisering av GPU-resurser kan hjälpa utvecklare och analytiker att få tillgång till resurser snabbare och enklare 
  • Hur resurser kan delas effektivt mellan grupper och utvecklingsfaser, utan dataläckage och med god uppföljning och kontroll över resursutnyttjandet 
  • En teknisk introduktion till VMware Bitfusion 

Varmt välkommen med din anmälan!