NVIDIA: Wer war dabei ?


Seite 113 von 118
Neuester Beitrag: 22.06.24 10:06
Eröffnet am:15.09.04 10:34von: ParocorpAnzahl Beiträge:3.936
Neuester Beitrag:22.06.24 10:06von: Unicorn71Leser gesamt:1.327.680
Forum:Börse Leser heute:242
Bewertet mit:
17


 
Seite: < 1 | ... | 111 | 112 |
| 114 | 115 | ... 118  >  

29 Postings, 3912 Tage rhoener63Ach Roecki,

 
  
    #2801
1
08.06.24 16:40
deine Argumente gegen einen weiteren Anstieg sind sachlich alle korrekt und begründet,
aber die Börse ist manchmal irrational - halt viel Psychologie im Spiel und FOMO tut seinen Senf noch dazu! Bei den meisten Werten, wo ich bis jetzt (aus unterschiedlichen Gründen) ausgestiegen bin, ging es langfristig dann doch weiter gen Norden -also bei NVDA noch ein bisschen Zeit lassen :)
Übrigens gestern schon beeindruckender Kontostand - neue Stückzahl mit altem Kurs - könnt ich mich dran gewöhnen :)  

15906 Postings, 5653 Tage Roecki@rhoener63

 
  
    #2802
1
08.06.24 17:30
Bitte nicht mißverstehen. FOMO wird jetzt an den Märkten und vor allem, wenn in der nächsten Woche die FED eine erste Zinssenkung im September ankündigt, dafür sorgen, daß in den USA die Börsen in den parabolischen Aufstieg übergehen. Bin noch voll investiert und rechne noch mit 1400 bis 1500 USD (nach Split 140 bis 150 USD).

Ab September könnte sich das schlagartig ändern.

**************************************************

Zitat: Übrigens gestern schon beeindruckender Kontostand - neue Stückzahl mit altem Kurs - könnt ich mich dran gewöhnen :)

Selbst wenn der Split 1:100 gewesen wäre und du mit 10000 Stücken dann im Depot versorgt wärst, bleibt es bei der gleichen Endsumme, hat dann nur mehr den Charakter eines Hotstocks-Invest, wobei Hotstock passt auch zu Nvidia, total heißgelaufen ;)

15906 Postings, 5653 Tage RoeckiOk verstehe ...

 
  
    #2803
08.06.24 18:01
höhere Stückzahl, alter Kurs! Depot explodiert ;)

767 Postings, 1783 Tage tomwe1Röckie

 
  
    #2804
09.06.24 07:47
Ironie ….  

Optionen

15906 Postings, 5653 Tage RoeckiNein, wie kommst du denn darauf?

 
  
    #2805
09.06.24 10:44

15906 Postings, 5653 Tage Roecki@rhoener63

 
  
    #2806
10.06.24 09:56
Hast Du Dir wenigstens einen Screenshot gemacht?

29 Postings, 3912 Tage rhoener63Für die Ewigkeit...

 
  
    #2807
1
10.06.24 10:13
ja klar Roecki und den werde ich mir noch einrahmen  :)
Wenn dann in 20 Jahren der Wert Realität geworden ist ( Inflation wird sein übriges dazu beitragen) kann ich sagen - hab ich doch schon damals prognostiziert :) Aber jetzt schauen wir uns erst mal die nahe "Zukunft" an, wird spannend genug!
Mit dem Verkaufen tue ich mich immer schwer (allein die fällige Steuer graust mir), aber irgendwann muss man auch anderen Werten mal eine "Chance" geben, vielleicht was Divi-lastiges?  

1219 Postings, 296 Tage cvr infoDer Kurszuwachs durch das Splitting

 
  
    #2808
1
10.06.24 11:53
wurde anscheinend schon in den letzten Wochen vorweggenommen. Jetzt wird es eher ruhig weitergehen, nehme ich an. Mal gucken ;-)  

15906 Postings, 5653 Tage Roecki

 
  
    #2809
10.06.24 14:30

21940 Postings, 1054 Tage Highländer49Nvidia

 
  
    #2810
10.06.24 16:09
Aktiensplit bei Nvidia vollzogen - Kurs wird optisch gezehntelt

 

21940 Postings, 1054 Tage Highländer49Nvidia

 
  
    #2811
10.06.24 16:10
Aktiensplit bei Nvidia vollzogen - Kurs wird optisch gezehntelt
https://www.ariva.de/news/...-bei-nvidia-vollzogen-kurs-wird-11272851  

2312 Postings, 5522 Tage Baron_StockTrader@ Roecki

 
  
    #2812
10.06.24 20:55
" Bin noch voll investiert und rechne noch mit 1400 bis 1500 USD (nach Split 140 bis 150 USD)."

Meiner Meinung nach kann man kurzfristig (1-3 Monate) mit Nvidia zocken und auf 140$ hoffen, langfristig ist hier aber nichts mehr zu holen, alles positive ist bereits mehr als eingepreist.

2379 Postings, 4825 Tage ZappelphillipDas wird heute ein Fingerzeig der Börse

 
  
    #2813
10.06.24 20:58
Der Gott des Gemetzels wartet, Höchstkurse sind doch schon erreicht.  

15906 Postings, 5653 Tage RoeckiExakt kurzfristig

 
  
    #2814
1
10.06.24 21:06
Alles eingepreist? Unterschätze niemals den amerikanischen Markt, nicht zu vergleichen mit D.

Bank of America mit KZ 1500 USD (mit FOMO bei Retail auch noch möglich). Die Aktie hat nen Lauf, mal sehen. Die Großen werden das Schiff eh vorher verlassen und Retail ist am Arsch.

Auf jeden Fall die größte Blase weltweit.

Ich rechne damit, daß erstmal die MK von MSFT eingeholt wird und NVDA sich auf Platz 1 bewegt. Mit der von mir erwarteten harten Rezession ab Q4/2024. bzw. Q1/2025 dann -70% Absturz.

15906 Postings, 5653 Tage Roecki@Zappelphillip

 
  
    #2815
10.06.24 21:09
Welche Höchstkurse? Die von Nvidia oder die vom S&P500?

2379 Postings, 4825 Tage ZappelphillipNvidia 1200 US Dollar

 
  
    #2816
10.06.24 21:15
Wie du richtig geschrieben hast, die größte BLASE weltweit.
Eine Blase kann auch pletzen.  

2312 Postings, 5522 Tage Baron_StockTrader@ Roecki

 
  
    #2817
10.06.24 21:22
Ja, da hast du recht. Kurzfristig bin ich auch long mit kz 130-132$

2379 Postings, 4825 Tage ZappelphillipUnd jetzt nochmals auf 1200 Dollar?

 
  
    #2818
10.06.24 21:24
Na komm, lass die Kirche im Dorf.
Jeder weiß um die Güte des Unternehmens,  will das hier nicht in Frage stellen.
Es wird eine deutliche Korrektur geben.
Schau dir Tesla an.
Fahrzeuge stehen auf Halde, Preise runter.
 

2312 Postings, 5522 Tage Baron_StockTrader@ Zappelphillip

 
  
    #2819
10.06.24 21:33
Roecki rechnet mit 140 - 150 $
Ich rechne mit ca. 132 $ (kurzfristig), zur Zeit sehen wir die totale FOMO

2379 Postings, 4825 Tage ZappelphillipWas meinst du mit FOMO?

 
  
    #2820
10.06.24 21:52
Den Begriff kenne ich leider nicht, sorry.
Lebensälter  

15906 Postings, 5653 Tage RoeckiFear of missing out

 
  
    #2821
10.06.24 21:57

15906 Postings, 5653 Tage RoeckiDas mit den nochmals 1200 USD

 
  
    #2822
10.06.24 22:03
war ironisch gemeint! Weil größte Blase überhaupt. Ich rechne selber  mit der härtesten Rezession seit knapp 100 Jahren. Schulden zu hoch und wer glaubt die Notenbanken können mit der Gelddruckerei jede Wirtschaftskrise erfolgreich patchen, hat für mich einfach ne zu große rosarote Brille an.

2379 Postings, 4825 Tage ZappelphillipZiehen wir jetzt einmal die Quartalszahlen zu Rate

 
  
    #2823
10.06.24 22:05
Die wurden deutlich übertroffen, Bonus obendrauf eine Dividende.
Hurra, da freue ich mich, ehrlich.
Habe ja auch Nvidia im Depot.
Rasante Kurssteigerung und dann Aktiensplitt.
Gut, wird weiter gekauft, vielleicht nicht so ganz wie erwartet.
Us-Märkte
Zinssenkungsphantasien seid Monaten.
Ups, die Wirtschaft läuft heiß, Inflation und Arbeitsmarkt zu hoch.
Ist echt die Frage, was passiert.
Kann ich an steigenden Kursen viel Geld verdienen oder doch besser an fallenden Kursen?
Die Frage muss jeder für sich entscheiden  

146 Postings, 3563 Tage pQ1aBeschleunigte Datenverarbeitung durch KI

 
  
    #2824
1
10.06.24 22:09
Branchenübergreifend treibt KI durch maschinelle Berechnungen die Innovation voran. Im Finanzwesen nutzen Banker KI, um Betrug schneller zu erkennen und Konten zu schützen, Telekommunikationsanbieter verbessern ihre Netzwerke, um einen besseren Service zu bieten, Wissenschaftler entwickeln neuartige Behandlungsmethoden für seltene Krankheiten, Versorgungsunternehmen bauen sauberere, zuverlässigere Energienetze und Automobilunternehmen machen selbstfahrende Autos sicherer und zugänglicher.

Das Rückgrat der wichtigsten KI-Anwendungsfälle sind Daten. Effektive und präzise KI-Modelle müssen anhand umfangreicher Datensätze trainiert werden. Unternehmen, die die Leistungsfähigkeit der KI nutzen möchten, müssen eine Datenpipeline einrichten, die Daten aus verschiedenen Quellen extrahiert, in ein einheitliches Format umwandelt und effizient speichert.

Datenwissenschaftler arbeiten daran, Datensätze durch zahlreiche Experimente zu verfeinern, um KI-Modelle für optimale Leistung in realen Anwendungen zu optimieren. Diese Anwendungen, von Sprachassistenten bis hin zu personalisierten Empfehlungssystemen, erfordern eine schnelle Verarbeitung großer Datenmengen, um eine Echtzeitleistung zu liefern.

Da KI-Modelle immer komplexer werden und beginnen, unterschiedliche Datentypen wie Text, Audio, Bilder und Videos zu verarbeiten, wird die Notwendigkeit einer schnellen Datenverarbeitung immer wichtiger. Unternehmen, die weiterhin auf herkömmliche CPU-basierte Computer angewiesen sind, kämpfen mit eingeschränkter Innovation und Leistung aufgrund von Datenengpässen, steigenden Rechenzentrumskosten und unzureichenden Rechenkapazitäten.

Viele Unternehmen setzen auf beschleunigtes Computing , um KI in ihre Betriebsabläufe zu integrieren. Diese Methode nutzt GPUs, spezielle Hardware, Software und parallele Rechentechniken, um die Rechenleistung um das bis zu 150-fache zu steigern und die Energieeffizienz um das bis zu 42-fache zu erhöhen .

Führende Unternehmen aus verschiedenen Branchen nutzen die beschleunigte Datenverarbeitung, um bahnbrechende KI-Initiativen voranzutreiben.

Finanzorganisationen erkennen Betrug in Sekundenbruchteilen
Finanzorganisationen stehen vor der großen Herausforderung, Betrugsmuster zu erkennen, da große Mengen an Transaktionsdaten schnell analysiert werden müssen. Darüber hinaus erschwert der Mangel an gekennzeichneten Daten für tatsächliche Betrugsfälle das Training von KI-Modellen. Herkömmlichen Data-Science-Pipelines fehlt die erforderliche Beschleunigung, um die großen Datenmengen zu verarbeiten, die mit der Betrugserkennung verbunden sind. Dies führt zu längeren Verarbeitungszeiten, die die Echtzeit-Datenanalyse und Betrugserkennung behindern.

Um diese Herausforderungen zu meistern, nutzt American Express , das jährlich mehr als 8 Milliarden Transaktionen abwickelt, beschleunigtes Computing, um Long Short-Term Memory (LSTM)-Modelle zu trainieren und einzusetzen. Diese Modelle zeichnen sich durch sequenzielle Analyse und Anomalieerkennung aus und können sich an neue Daten anpassen und daraus lernen, was sie ideal für die Betrugsbekämpfung macht.

Durch den Einsatz paralleler Rechentechniken auf GPUs beschleunigt American Express das Training seiner LSTM-Modelle erheblich. GPUs ermöglichen es Live-Modellen außerdem, riesige Mengen an Transaktionsdaten zu verarbeiten, um Hochleistungsberechnungen durchzuführen und so Betrug in Echtzeit zu erkennen.

Das System arbeitet mit einer Latenzzeit von zwei Millisekunden, um Kunden und Händler besser zu schützen, und bietet eine 50-fache Verbesserung gegenüber einer CPU-basierten Konfiguration. Durch die Kombination des beschleunigten LSTM Deep Neural Network mit seinen bestehenden Methoden hat American Express die Genauigkeit der Betrugserkennung in bestimmten Segmenten um bis zu 6 % verbessert.

Finanzunternehmen können beschleunigtes Computing auch nutzen, um die Datenverarbeitungskosten zu senken. Durch die Ausführung datenintensiver Spark3-Workloads auf NVIDIA-GPUs bestätigte PayPal das Potenzial, die Cloud-Kosten für die Verarbeitung großer Datenmengen und KI-Anwendungen um bis zu 70 % zu senken .

Durch eine effizientere Datenverarbeitung können Finanzinstitute Betrug in Echtzeit erkennen, was schnellere Entscheidungen ohne Unterbrechung des Transaktionsflusses ermöglicht und das Risiko finanzieller Verluste minimiert.

Telekommunikationsunternehmen vereinfachen komplexe Routing-Vorgänge
Telekommunikationsanbieter generieren riesige Mengen an Daten aus verschiedenen Quellen, darunter Netzwerkgeräte, Kundeninteraktionen, Abrechnungssysteme sowie Netzwerkleistung und -wartung.

Die Verwaltung nationaler Netzwerke, die täglich Hunderte von Petabyte an Daten verarbeiten, erfordert eine komplexe Routenplanung der Techniker, um die Servicebereitstellung sicherzustellen. Um den Technikereinsatz zu optimieren, führen fortschrittliche Routing-Engines Billionen von Berechnungen durch und berücksichtigen dabei Faktoren wie Wetter, Fähigkeiten der Techniker, Kundenanfragen und Flottenverteilung. Der Erfolg dieser Vorgänge hängt von einer sorgfältigen Datenaufbereitung und ausreichender Rechenleistung ab.

AT&T betreibt zur Betreuung seiner Kunden eines der größten Außendienstteams des Landes und verbessert datenintensive Routing-Abläufe mit NVIDIA cuOpt, das zur Berechnung komplexer Fahrzeug-Routing-Probleme auf Heuristiken, Metaheuristiken und Optimierungen basiert.

In frühen Tests lieferte cuOpt Routing-Lösungen in 10 Sekunden , wodurch die Cloud-Kosten um 90 % gesenkt und Techniker in die Lage versetzt wurden, täglich mehr Serviceanrufe abzuwickeln. NVIDIA RAPIDS , eine Suite aus Softwarebibliotheken zur Beschleunigung von Data-Science- und Analyse-Pipelines, beschleunigt cuOpt noch weiter und ermöglicht Unternehmen die Integration lokaler Suchheuristiken und Metaheuristiken wie Tabu Search zur kontinuierlichen Routenoptimierung.

AT&T führt NVIDIA RAPIDS Accelerator für Apache Spark ein , um die Leistung von Spark-basierten KI- und Datenpipelines zu verbessern. Dies hat dem Unternehmen geholfen, die Betriebseffizienz in allen Bereichen zu steigern, vom Training von KI-Modellen über die Aufrechterhaltung der Netzwerkqualität bis hin zur Reduzierung der Kundenabwanderung und Verbesserung der Betrugserkennung. Mit RAPIDS Accelerator reduziert AT&T seine Cloud-Computing-Ausgaben für Ziel-Workloads, ermöglicht gleichzeitig eine schnellere Leistung und reduziert seinen CO2-Fußabdruck.

Beschleunigte Datenpipelines und -verarbeitung werden von entscheidender Bedeutung sein, da die Telekommunikationsunternehmen ihre Betriebseffizienz verbessern und gleichzeitig die höchstmögliche Servicequalität bieten möchten.

Biomedizinische Forscher verkürzen Zeitpläne für die Arzneimittelentdeckung
Da Forscher mithilfe von Technologie die rund 25.000 Gene des menschlichen Genoms untersuchen, um ihren Zusammenhang mit Krankheiten zu verstehen, ist die Zahl medizinischer Daten und von Experten begutachteter Forschungsarbeiten explosionsartig gestiegen. Biomedizinische Forscher verlassen sich auf diese Arbeiten, um das Untersuchungsfeld für neuartige Behandlungen einzugrenzen. Allerdings ist es zu einer unmöglichen Aufgabe geworden, Literaturrecherchen zu einem so umfangreichen und wachsenden Bestand relevanter Forschungsarbeiten durchzuführen.

AstraZeneca, ein führendes Pharmaunternehmen, hat einen Biological Insights Knowledge Graph (BIKG) entwickelt, der Wissenschaftler im gesamten Arzneimittelentdeckungsprozess unterstützt, von der Literaturrecherche über die Bewertung von Screen-Treffern bis hin zur Zielidentifizierung und vielem mehr. Dieser Graph integriert öffentliche und interne Datenbanken mit Informationen aus der wissenschaftlichen Literatur und modelliert zwischen 10 Millionen und 1 Milliarde komplexe biologische Zusammenhänge.

BIKG wurde erfolgreich für die Genbewertung eingesetzt und unterstützte Wissenschaftler bei der Entwicklung von Hypothesen über potenziell vielversprechende Ziele für neuartige Krankheitsbehandlungen. Auf der NVIDIA GTC stellte das Team von AstraZeneca ein Projekt vor, bei dem erfolgreich Gene identifiziert wurden, die mit Resistenzen bei Lungenkrebsbehandlungen in Zusammenhang stehen.

Um die Anzahl potenzieller Gene einzugrenzen, arbeiteten Datenwissenschaftler und Biologen zusammen, um die Kriterien und Genmerkmale zu definieren, die sich ideal für die Entwicklung von Behandlungen eignen. Sie trainierten einen Algorithmus für maschinelles Lernen, um die BIKG-Datenbanken nach Genen mit den in der Literatur als behandelbar genannten Merkmalen zu durchsuchen. Mithilfe von NVIDIA RAPIDS für schnellere Berechnungen reduzierte das Team den anfänglichen Genpool von 3.000 auf nur 40 Zielgene, eine Aufgabe, die früher Monate dauerte, jetzt aber nur noch Sekunden dauert.

Indem sie die Arzneimittelentwicklung durch beschleunigtes Computing und künstliche Intelligenz ergänzen, können Pharmaunternehmen und Forscher endlich die enormen Datenmengen nutzen, die im medizinischen Bereich anfallen, um schneller und sicherer neue Medikamente zu entwickeln, die letztlich Leben retten können.

Versorgungsunternehmen gestalten die Zukunft sauberer Energie
Im Energiesektor wird derzeit stark auf die Umstellung auf kohlenstoffneutrale Energiequellen gedrängt. Da die Kosten für die Nutzung erneuerbarer Ressourcen wie Solarenergie in den letzten zehn Jahren drastisch gesunken sind, war die Chance, echte Fortschritte in Richtung einer sauberen Energiezukunft zu erzielen, nie größer.

Dieser Trend hin zur Integration sauberer Energie aus Windparks, Solaranlagen und Heimbatterien hat jedoch neue Komplexitäten in der Netzverwaltung mit sich gebracht. Da die Energieinfrastruktur vielfältiger wird und bidirektionale Stromflüsse berücksichtigt werden müssen, ist die Verwaltung des Netzes datenintensiver geworden. Neue intelligente Netze sind jetzt erforderlich, um Hochspannungsbereiche für das Laden von Fahrzeugen zu verwalten. Sie müssen auch die Verfügbarkeit verteilter gespeicherter Energiequellen verwalten und sich an Schwankungen im Verbrauch im gesamten Netz anpassen.

Utilidata, ein führendes Grid-Edge-Softwareunternehmen , hat in Zusammenarbeit mit NVIDIA eine verteilte KI-Plattform namens Karman für den Grid Edge entwickelt, die ein benutzerdefiniertes NVIDIA Jetson Orin Edge-KI-Modul verwendet. Dieser benutzerdefinierte Chip und diese Plattform, die in Stromzähler eingebettet sind, verwandeln jeden Zähler in einen Datenerfassungs- und Kontrollpunkt, der Tausende von Datenpunkten pro Sekunde verarbeiten kann.

Karman verarbeitet hochauflösende Echtzeitdaten von Zählern am Rand des Netzwerks. Dadurch erhalten Versorgungsunternehmen detaillierte Einblicke in die Netzbedingungen, können den Verbrauch vorhersagen und verteilte Energieressourcen nahtlos in Sekunden statt in Minuten oder Stunden integrieren. Darüber hinaus können Netzbetreiber mit Inferenzmodellen auf Edge-Geräten Leitungsfehler vorhersehen und schnell identifizieren, um potenzielle Ausfälle vorherzusagen und vorbeugende Wartung durchzuführen, um die Netzzuverlässigkeit zu erhöhen.

Durch die Integration von KI und beschleunigter Datenanalyse hilft Karman Versorgungsunternehmen dabei, bestehende Infrastrukturen in effiziente Smart Grids umzuwandeln. Dies ermöglicht eine maßgeschneiderte, lokalisierte Stromverteilung, die schwankenden Nachfragemustern gerecht wird, ohne dass umfangreiche physische Infrastrukturverbesserungen erforderlich sind, und erleichtert so eine kostengünstigere Modernisierung des Netzes.

Automobilhersteller ermöglichen sicherere, zugänglichere, selbstfahrende Fahrzeuge
Da Automobilhersteller nach vollautonomen Fahrfunktionen streben, müssen Fahrzeuge in der Lage sein, Objekte zu erkennen und in Echtzeit zu navigieren. Dies erfordert Hochgeschwindigkeitsdatenverarbeitungsaufgaben, einschließlich der Einspeisung von Live-Daten von Kameras, Lidar, Radar und GPS in KI-Modelle, die Navigationsentscheidungen treffen, um die Straßen sicher zu halten.

Der Inferenz-Workflow beim autonomen Fahren ist komplex und umfasst mehrere KI-Modelle sowie die erforderlichen Vor- und Nachbearbeitungsschritte. Traditionell wurden diese Schritte clientseitig mithilfe von CPUs ausgeführt. Dies kann jedoch zu erheblichen Engpässen bei der Verarbeitungsgeschwindigkeit führen, was ein inakzeptabler Nachteil für eine Anwendung ist, bei der schnelle Verarbeitung Sicherheit bedeutet.

Um die Effizienz der Arbeitsabläufe beim autonomen Fahren zu verbessern, hat der Elektrofahrzeughersteller NIO den NVIDIA Triton Inference Server in seine Inferenz-Pipeline integriert. NVIDIA Triton ist eine Open-Source-, Multi-Framework- und Inferenz-Software. Durch die Zentralisierung von Datenverarbeitungsaufgaben reduzierte NIO die Latenz in einigen Kernbereichen um das Sechsfache und erhöhte den gesamten Datendurchsatz um bis zu das Fünffache.

Der GPU-zentrierte Ansatz von NIO erleichterte die Aktualisierung und Bereitstellung neuer KI-Modelle, ohne dass an den Fahrzeugen selbst etwas geändert werden musste. Darüber hinaus konnte das Unternehmen mehrere KI-Modelle gleichzeitig auf demselben Bildsatz verwenden, ohne Daten über ein Netzwerk hin und her senden zu müssen, was Datenübertragungskosten sparte und die Leistung verbesserte.

Durch den Einsatz beschleunigter Datenverarbeitung stellen Entwickler von Software für autonome Fahrzeuge sicher, dass sie einen hohen Leistungsstandard erreichen, um Verkehrsunfälle zu vermeiden, Transportkosten zu senken und die Mobilität der Benutzer zu verbessern.

Einzelhändler verbessern Nachfrageprognosen
Im schnelllebigen Einzelhandelsumfeld ist die Fähigkeit, Daten schnell zu verarbeiten und zu analysieren, von entscheidender Bedeutung, um Lagerbestände anzupassen, Kundeninteraktionen zu personalisieren und Preisstrategien im Handumdrehen zu optimieren. Je größer ein Einzelhändler ist und je mehr Produkte er führt, desto komplexer und rechenintensiver sind seine Datenoperationen.

Walmart, der größte Einzelhändler der Welt, setzte auf beschleunigtes Computing, um die Prognosegenauigkeit für 500 Millionen Artikel-Laden-Kombinationen in 4.500 Filialen deutlich zu verbessern.

Während Walmarts Datenwissenschaftsteam robustere Algorithmen für maschinelles Lernen entwickelte, um diese gigantische Prognoseherausforderung zu meistern, geriet die vorhandene Computerumgebung ins Wanken. Jobs konnten nicht abgeschlossen werden oder lieferten ungenaue Ergebnisse. Das Unternehmen stellte fest, dass Datenwissenschaftler Funktionen aus Algorithmen entfernen mussten, damit diese bis zum Ende ausgeführt werden konnten.

Um seine Prognosevorgänge zu verbessern, begann Walmart mit der Verwendung von NVIDIA-Grafikprozessoren und RAPIDs . Das Unternehmen verwendet jetzt ein Prognosemodell mit 350 Datenfunktionen, um den Umsatz in allen Produktkategorien vorherzusagen. Diese Funktionen umfassen Verkaufsdaten, Werbeveranstaltungen und externe Faktoren wie Wetterbedingungen und Großereignisse wie den Super Bowl, die die Nachfrage beeinflussen.

Mithilfe fortschrittlicher Modelle konnte Walmart die Prognosegenauigkeit von 94 % auf 97 % steigern und gleichzeitig die Abfälle bei Frischwaren im Wert von schätzungsweise 100 Millionen US-Dollar einsparen sowie Lagerausfälle und Preisnachlässe reduzieren. GPUs führten die Modelle zudem 100-mal schneller aus, sodass Aufträge in nur vier Stunden abgeschlossen waren, ein Vorgang, der in einer CPU-Umgebung mehrere Wochen gedauert hätte.

Durch die Verlagerung datenintensiver Vorgänge auf GPUs und beschleunigtes Computing können Einzelhändler sowohl ihre Kosten als auch ihren CO2-Fußabdruck senken und ihren Kunden gleichzeitig optimale Auswahlmöglichkeiten und niedrigere Preise bieten.

Öffentlicher Sektor verbessert Katastrophenvorsorge
Drohnen und Satelliten erfassen riesige Mengen an Luftbilddaten, die öffentliche und private Organisationen nutzen, um Wettermuster vorherzusagen, Tierwanderungen zu verfolgen und Umweltveränderungen zu beobachten. Diese Daten sind für Forschung und Planung von unschätzbarem Wert und ermöglichen fundiertere Entscheidungen in Bereichen wie Landwirtschaft, Katastrophenschutz und Bemühungen zur Bekämpfung des Klimawandels. Der Wert dieser Bilder kann jedoch eingeschränkt sein, wenn ihnen spezifische Standortmetadaten fehlen.

Eine Bundesbehörde, die mit NVIDIA zusammenarbeitet, benötigte eine Methode, um automatisch den Standort von Bildern zu bestimmen, denen georäumliche Metadaten fehlen. Diese sind für Missionen wie Such- und Rettungseinsätze, die Reaktion auf Naturkatastrophen und die Umweltüberwachung unverzichtbar. Allerdings ist die Identifizierung eines kleinen Bereichs innerhalb einer größeren Region anhand eines Luftbilds ohne Metadaten eine äußerst schwierige Aufgabe, vergleichbar mit der Suche nach der Nadel im Heuhaufen. Algorithmen, die bei der Geolokalisierung helfen sollen, müssen Variationen in der Bildbeleuchtung und Unterschiede berücksichtigen, die sich aus der Aufnahme von Bildern zu unterschiedlichen Zeiten, an unterschiedlichen Tagen und aus unterschiedlichen Winkeln ergeben.

Um Luftbilder ohne Geotags zu identifizieren, haben NVIDIA, Booz Allen und die Regierungsbehörde gemeinsam an einer Lösung gearbeitet, die Computer-Vision-Algorithmen nutzt, um Informationen aus Bildpixeldaten zu extrahieren und so das Problem der Bildähnlichkeitssuche zu skalieren.

Bei dem Versuch, dieses Problem zu lösen, verwendete ein NVIDIA-Lösungsarchitekt zunächst eine Python-basierte Anwendung. Die Verarbeitung dauerte zunächst mehr als 24 Stunden, obwohl sie auf CPUs lief. GPUs verkürzten dies auf wenige Minuten und führten Tausende von Datenoperationen parallel aus, während auf einer CPU nur eine Handvoll Operationen möglich waren. Durch die Verschiebung des Anwendungscodes auf CuPy, eine GPU-beschleunigte Open-Source-Bibliothek, wurde die Anwendung um das 1,8-Millionenfache beschleunigt und lieferte Ergebnisse in 67 Mikrosekunden.

Mit einer Lösung, die Bilder und Daten großer Landmassen in nur wenigen Minuten verarbeiten kann, erhalten Organisationen Zugriff auf die wichtigen Informationen, die sie benötigen, um schneller und effektiver auf Notfälle reagieren und proaktiv planen zu können. So können möglicherweise Leben gerettet und die Umwelt geschützt werden.

Beschleunigen Sie KI-Initiativen und erzielen Sie Geschäftsergebnisse
Unternehmen, die beschleunigtes Computing zur Datenverarbeitung nutzen, treiben KI-Initiativen voran und positionieren sich so, dass sie innovativer und leistungsfähiger sind als ihre Konkurrenten.

Durch beschleunigtes Computing lassen sich größere Datensätze effizienter verarbeiten, es ist ein schnelleres Modelltraining und die Auswahl optimaler Algorithmen möglich und es werden präzisere Ergebnisse für Live-KI-Lösungen erzielt.

Unternehmen, die es verwenden, können im Vergleich zu herkömmlichen CPU-basierten Systemen ein besseres Preis-Leistungs-Verhältnis erzielen und ihre Fähigkeit verbessern, Kunden, Mitarbeitern und Partnern hervorragende Ergebnisse und Erfahrungen zu bieten.

https://blogs.nvidia.com/blog/...a-processing-ai-industry-innovation/  

Optionen

146 Postings, 3563 Tage pQ1aLöschung

 
  
    #2825
1
10.06.24 22:13

Moderation
Zeitpunkt: 11.06.24 11:30
Aktion: Löschung des Beitrages
Kommentar: Regelverstoß

 

 

Optionen

Seite: < 1 | ... | 111 | 112 |
| 114 | 115 | ... 118  >  
   Antwort einfügen - nach oben