
Die israelische Armee nutzte Azure, um Informationen aus der Massenüberwachung zu sammeln, zu transkribieren und zu übersetzen. Eine israelische Einheit entwickelte ein KI-gestütztes System, das Millionen von Telefonaten von palästinensischen Zivilisten analysierte. Microsoft behauptet, keine Beweise für die Nutzung von Azure zur Verfolgung oder Verletzung von Menschen zu haben.
Trotzdem hat Microsoft eine interne Untersuchung durchgeführt und festgestellt, dass seine Produkte gegen die Nutzungsbedingungen verstoßen. Die Dienste für eine israelische Einheit wurden deaktiviert, der Großteil des Vertrags mit der israelischen Armee besteht jedoch weiterhin. Kritiker sehen die Maßnahme als unzureichend an.
Mithilfe von Kameras, die auch andere Wildtiere erkennen können, wird die KI eingesetzt, um Nutzer über die Anwesenheit von Bären in ihrer Umgebung zu informieren. Die Benachrichtigungen werden über eine Smartphone-App versendet. Zusätzlich können die Kameras ein helles Licht ausstrahlen, um Tiere abzuhalten. Die Genauigkeit des Systems wurde bereits in einem Zoo getestet und die Kameras sind für den privaten Gebrauch erhältlich. Für die KI-Analyse und die Benachrichtigungen wird ein monatlicher Abonnementpreis erhoben.
Parallel dazu reagieren die Wall Street-Indizes empfindlich auf Wirtschaftsdaten und die Kommunikation der Federal Reserve. Investoren erwarten nun eine geringere Wahrscheinlichkeit für eine Zinssenkung im Oktober. Die Technologie-Aktien leiden unter der Unsicherheit, die durch mögliche Wirtschaftsdaten und einen möglichen Regierungs-Shutdown verstärkt wird.
Eine große Herausforderung stellt die Stromversorgung der riesigen Rechenzentren dar. OpenAI arbeitet mit Partnern wie Oracle und Softbank an einem gemeinsamen KI-Infrastrukturprojekt und erhält von Nvidia Zugang zu mindestens zehn Gigawatt an KI-Rechenzentren.
Der enorme Strombedarf dieser Projekte, der dem Verbrauch von 876.000 Haushalten im Jahr entspricht, verdeutlicht den "stillen Engpass" bei der Strombeschaffung für die Skalierung von KI.
Der frühe Chatbot ELIZA demonstrierte bereits 1966 diese Fähigkeit, Menschen durch scheinbar menschliche Gespräche zu beeindrucken, obwohl er keine echte Intelligenz besaß. Der Entwickler Joseph Weizenbaum warnte vor den Gefahren von KI, da Menschen ihre Gefühle und Beziehungen in künstliche Systeme projizieren könnten.
Es ist wichtig, KI ethisch und verantwortungsvoll einzusetzen und die Grenzen zwischen Mensch und Maschine zu respektieren. KI-Systeme sollten nicht Aufgaben übernehmen, die menschliche Werte, Erfahrung und Empathie erfordern.

gekennzeichnet.