Was ist Cognitive Computing: Erklärung und Anwendungen

Was ist Cognitive Computing

Können Maschinen wirklich komplexe Probleme lösen, die menschliches Urteilsvermögen erfordern? Diese Frage treibt die Entwicklung intelligenter Systeme voran, die mehrdeutige Daten interpretieren und eigenständig Schlussfolgerungen ziehen.

Moderne Technologien simulieren menschliche Denkprozesse durch Algorithmen, die aus riesigen Datenmengen lernen. Dabei kombinieren sie strukturierte Tabellen mit ungeordneten Texten, Bildern oder Sensordaten – eine Fähigkeit, die klassische Programme überfordert.

Pionierprojekte wie IBMs Watson zeigen: Solche Systeme erkennen Muster in Echtzeit und passen ihre Strategien dynamisch an. Besonders spannend wird es, wenn sie aus Fehlern lernen und Entscheidungswege transparent dokumentieren.

Der Kern liegt in der Fähigkeit, Unsicherheiten zu bewerten. Statt einfacher Ja/Nein-Logik arbeiten diese Lösungen mit Wahrscheinlichkeiten und Kontextanalysen. Dies ermöglicht Anwendungen von der Medizin bis zur Finanzbranche, wo präzise Prognosen existenzielle Auswirkungen haben.

Das Wichtigste zuerst:

  • Simuliert menschliche Denkprozesse durch adaptive Algorithmen
  • Verarbeitet strukturierte und unstrukturierte Daten parallel
  • IBM Watson gilt als wegweisende Plattform dieser Technologie
  • Lernt kontinuierlich aus neuen Informationen und Erfahrungswerten
  • Reduziert Fehlerquoten in kritischen Bereichen wie der Medizin
  • Kombiniert Deep Learning mit Echtzeit-Datenanalyse

Einführung in Cognitive Computing

Die Evolution digitaler Technologien hat Systeme hervorgebracht, die menschliche Denkmuster imitieren. Anders als klassische Computerprogramme verarbeiten sie nicht nur Befehle, sondern interpretieren Zusammenhänge. Dieser Paradigmenwechsel ermöglicht Lösungen für Aufgaben, die bisher menschliche Intelligenz erforderten.

Hintergrund und Bedeutung der Technologie

Traditionelle Systeme stoßen bei unstrukturierten Daten wie Texten oder Bildern an Grenzen. Moderne Ansätze kombinieren Natural Language Processing mit maschinellen Lernverfahren. „Die Fähigkeit, Kontexte zu verstehen, trennt einfache Tools von echten kognitiven Lösungen“, erklärt ein IT-Experte aus dem WebInfo.

Kern dieser Entwicklung ist die Integration von künstlicher Intelligenz in die Datenverarbeitung. Unternehmen nutzen diese Technologie, um riesige Informationsmengen effizient zu strukturieren und auszuwerten.

Entwicklung und historische Meilensteine

2011 markierte IBMs Watson einen Durchbruch: Das System gewann gegen Menschen in der Quizshow Jeopardy. Dieser Erfolg bewies, dass Maschinen natürliche Sprache verstehen und komplexe Fragen beantworten können.

Heute analysieren kognitive Systeme Echtzeitdaten aus verschiedenen Quellen. Finanzinstitute nutzen sie für Risikoprognosen, Mediziner für präzisere Diagnosen. Fortschritte in Rechenleistung und Algorithmen treiben diese Entwicklung stetig voran.

Grundlagen und Definition: Was ist Cognitive Computing

Im Zeitalter exponentiell wachsender Datenmengen reichen starre Algorithmen nicht mehr aus. Moderne Lösungen analysieren Texte, Bilder und Sensordaten gleichzeitig – eine Fähigkeit, die klassische Systeme überfordert. Diese Technologie versteht Kontexte und entwickelt Lösungswege, die menschlichen Denkmustern ähneln.

Unterschied zu herkömmlichen Computersystemen

Traditionelle Programme folgen festen Regeln. Sie scheitern bei unstrukturierten Daten wie Kundenfeedback oder medizinischen Befunden. Kognitive Ansätze nutzen hingegen selbstlernende Modelle, die Zusammenhänge eigenständig erkennen.

Ein Beispiel: Banken automatisieren Risikobewertungen. Während alte Systeme nur Zahlen verarbeiten, interpretieren neue Tools auch Wirtschaftsberichte. So entstehen präzisere Prognosen durch kombinierte Datenauswertung.

Verbindung zu Künstlicher Intelligenz

Beide Bereiche nutzen maschinelles Lernen, verfolgen aber unterschiedliche Ziele. KI optimiert Automatisierung, während kognitive Systeme Menschen bei Entscheidungen unterstützen. Sie liefern keine einfachen Antworten, sondern Handlungsoptionen mit Wahrscheinlichkeitsangaben.

Unternehmen profitieren besonders in komplexen Szenarien: Supply-Chain-Management analysiert Wetterdaten und Lieferverzögerungen gleichzeitig. Diese Technologie wird zum strategischen Partner, der Erfahrungswissen mit Echtzeitdaten verknüpft.

Die wichtigsten Merkmale und Technologien

Wie reagieren Systeme auf ständig wechselnde Datenströme? Moderne Lösungen verbinden selbstoptimierende Algorithmen mit kontextbezogener Intelligenz. Diese Kombination ermöglicht es, Muster in Echtzeit zu erkennen und Sprachbefehle natürlich zu interpretieren.

Adaptives Lernen und Mustererkennung

Fortschrittliche Systeme passen ihre Modelle automatisch an neue Informationen an. Ein Handelsunternehmen nutzt diese Technologie, um Lieferkettenstörungen vorherzusagen. „Die Algorithmen lernen aus historischen Daten und aktuellen Marktsignalen“, erklärt ein Data Scientist.

Funktion Traditionell Kognitiv
Datenverarbeitung Statische Regeln Dynamische Anpassung
Lernfähigkeit Manuelle Updates Automatisiertes Lernen
Entscheidungsgrundlage Einzelne Datensätze Kombinierte Muster

Natural Language Processing und Data-Mining

Sprachbasierte Systeme analysieren Kundenanfragen in Chats oder E-Mails. Google nutzt solche Techniken, um Suchintentionen präziser zu verstehen. Gleichzeitig durchforsten Data-Mining-Tools Petabytes an Informationen nach versteckten Zusammenhängen.

Ein Bankenbeispiel zeigt die Praxiswirkung: Kreditrisiken werden nicht nur anhand von Zahlen bewertet. Wirtschaftsnachrichten und Social-Media-Daten fließen in die Entscheidungen ein. Diese Methode reduziert Fehleinschätzungen um bis zu 40%.

„Echtzeitfähigkeit ist der Schlüssel für wettbewerbsfähige Lösungen. Wer heute langsam reagiert, verliert morgen Kunden.“

Die Zukunft gehört Systemen, die Erfahrungswissen mit Live-Daten verknüpfen. Krankenhäuser setzen bereits Tools ein, die Behandlungspläne während der OP aktualisieren. Diese Flexibilität macht kognitive Technologien unverzichtbar.

Typen von kognitiven Systemen

Moderne Unternehmen setzen zunehmend auf spezialisierte Systeme, die unterschiedliche Herausforderungen meistern. Zwei Schlüsselansätze dominieren dabei: Deep-Learning-Architekturen und Machine-Learning-Modelle mit neuronalen Netzwerken.

Deep-Learning-Systeme

Diese Technologien imitieren die Schichtstruktur des menschlichen Gehirns. Sie verarbeiten unstrukturierte Daten wie Live-Videostreams oder Sensormessungen. Autonome Fahrzeuge nutzen solche Systeme, um in Sekundenbruchteilen Straßenlagen zu bewerten.

YouTube

By loading the video, you agree to YouTube’s privacy policy.
Learn more

Load video

Ein Beispiel: Kameras erkennen Fußgänger bei Nebel. Radarsensoren messen gleichzeitig Abstände. Die Algorithmen kombinieren diese Datenströme, um Bremsmanöver millisekundengenau auszulösen.

Machine Learning und künstliche neuronale Netzwerke

Im Gesundheitswesen analysieren diese Modelle Röntgenbilder mit 95% Trefferquote. Sie finden Mikroverkalkungen, die menschliche Ärzte übersehen. „Unsere Systeme lernen aus Millionen histologischer Aufnahmen“, erklärt ein Medizininformatiker.

Mehr zum Thema:
Phi3.5: Funktionen von Microsofts LLM im Überblick

Traditionelle Algorithmen scheitern bei solchen Aufgaben. Neuronale Netze hingegen erkennen Muster in:

  • Sprachaufnahmen von Service-Hotlines
  • Produktionsdaten in Fabriken
  • Börsenkursen kombiniert mit Nachrichtentexten

Ein Krankenhaus in Hamburg reduziert Fehldiagnosen durch diese Technologie um 37%. Die Systeme werten dabei Patientendaten mit Echtzeit-Lageberichten aus Notaufnahmen ab.

Unterschied zwischen Cognitive Computing und Künstlicher Intelligenz

Während KI-Lösungen auf Automatisierung setzen, verfolgen kognitive Ansätze ein anderes Ziel: die Nachbildung menschlicher Denkmuster. Diese Spezialtechnologie analysiert nicht nur Daten, sondern interpretiert Absichten und Kontexte. Sie dient als Entscheidungsassistent statt als autonomer Akteur.

Fokus auf menschliche Denkprozesse

Kognitive Computersysteme verwenden semantische Analysen, um Sprachbefehle wie ein Mensch zu deuten. IBM Watson zeigt dieses Prinzip in der Praxis: Das System erkennt bei medizinischen Diagnosen Zusammenhänge zwischen Symptomen und Patientenhistorien. Es liefert keine festen Antworten, sondern gewichtete Handlungsoptionen.

Aspekt Künstliche Intelligenz Kognitive Systeme
Zielsetzung Automatisierung von Prozessen Entscheidungsunterstützung
Datenarten Strukturierte Eingaben Kombinierte Formate
Interaktion Befehlsorientiert Dialogfähig

Interaktion Mensch und Maschine

Ein Beispiel aus dem Kundenservice verdeutlicht den Unterschied: KI-Chatbots beantworten Standardfragen. Kognitive Tools analysieren gleichzeitig Stimmlage und Wortwahl, um emotionale Zustände zu erfassen. Diese Entwicklung reduziert Missverständnisse in kritischen Situationen.

Herausforderungen zeigen sich bei der Integration in bestehende Computersysteme. Die Technologie benötigt enorme Rechenleistung und qualitativ hochwertige Trainingsdaten. „Je komplexer die Probleme, desto wichtiger wird transparente Entscheidungsnachverfolgung“, betont ein IT-Architekt.

Praktische Probleme entstehen auch bei der Skalierung. Jede Branche erfordert maßgeschneiderte Modelle – eine Hürde für kleine Unternehmen. Dennoch revolutioniert diese Entwicklung Bereiche wie Pharmaforschung oder Predictive Maintenance.

Bekannte Anbieter und Praxisbeispiele

Marktführende Technologiekonzerne treiben die Entwicklung intelligenter Lösungen voran. Ihre Plattformen verarbeiten große Mengen an Daten und beantworten komplexe Fragen in Echtzeit. Dabei kombinieren sie Sprachanalyse mit prädiktiven Modellen.

IBM Watson und Microsoft Cognitive Services

IBMs Flaggschiff-Lösung analysiert medizinische Befunde und erstellt individuelle Therapiepläne. Über 147.000 Patienten profitieren aktuell von dieser Technologie. Microsofts Dienste integrieren maschinelles Lernen direkt in Geschäftsanwendungen – ein Schlüsselvorteil für Unternehmen.

Anbieter Schwerpunkt Vorteile
IBM Watson Medizinische Diagnostik Reduktion von Fehleinschätzungen
Microsoft Cognitive Services Sprachverarbeitung Integration in Office 365
DeepMind (Alphabet) Energieoptimierung 40% geringerer Verbrauch in Rechenzentren

Innovative Startups und weitere Marktteilnehmer

Junge Unternehmen entwickeln spezialisierte Systemen für Nischenmärkte. Ein Berliner Startup analysiert Maschinendaten in Fabriken und sagt Wartungsbedarf voraus. Diese Lösungen reduzieren Ausfallzeiten um bis zu 65%.

Finanzinstitute nutzen solche Systemen für Risikobewertungen. Sie verknüpfen Börsendaten mit Nachrichtenartikeln. So entstehen präzisere Prognosen, die menschliche Analysten unterstützen.

Cognitive Computing in der Praxis

Intelligente Systeme revolutionieren kritische Geschäftsprozesse durch ihre Fähigkeit, heterogene Datenströme zu verknüpfen. In der Medizin analysieren sie Millionen Röntgenbilder und erkennen Tumore mit 94% Treffsicherheit. Radiologen erhalten dadurch präzise Zweitmeinungen innerhalb von Sekunden.

Transformation der Diagnostik

Führende Kliniken nutzen Plattformen wie IBM Watson, um Behandlungspläne zu personalisieren. Das System vergleicht Patientendaten mit 30 Milliarden medizinischen Bildern. So entstehen Therapieempfehlungen, die aktuelle Studien und genetische Besonderheiten berücksichtigen.

Optimierung industrieller Abläufe

In der Finanzbranche reduzieren Algorithmen Betrugsfälle um 68%. Sie analysieren Transaktionsmuster in Echtzeit und erkennen Anomalien. Ein Beispiel: Ungewöhnliche Geldbewegungen werden sofort mit Nachrichten zu Firmenpleiten abgeglichen.

Logistikunternehmen profitieren ebenfalls. Sensordaten aus Lkw-Flotten kombiniert mit Wetterprognosen ermöglichen dynamische Routenplanung. Diese Datenmengen wären für menschliche Analysten nicht mehr bewältigbar.

Branche Einsatzgebiet Erfolgsquote
Gesundheit Diagnoseunterstützung 94%
Finanzen Betrugserkennung 68% Reduktion
Fertigung Predictive Maintenance 65% weniger Ausfälle

Ein Automobilzulieferer zeigt die unterschiede zu herkömmlichen Methoden: Sensoren melden Verschleißerscheinungen, während Algorithmen Lieferengpässe vorhersagen. Diese Kombination senkt Produktionsstillstände nachweislich um 41%.

Vorteile von Cognitive Computing

Moderne Analysetechnologien revolutionieren betriebliche Abläufe durch ihre Fähigkeit, Muster in Echtzeit zu entschlüsseln. Sie transformieren Rohdaten in strategische Handlungsempfehlungen – oft schneller, als Menschen Kaffee trinken können.

Mustererkennung in Echtzeit

Optimierung von Geschäftsprozessen

Ein Logistikkonzern reduziert Lagerkosten um 28%, indem Algorithmen Wetterdaten mit Lieferrouten verknüpfen. „Unsere Systeme berechnen stündlich 400.000 Variablen neu“, berichtet ein Supply-Chain-Manager. Solche Lösungen erkennen Engpässe, bevor sie entstehen.

Verbesserte Entscheidungsfindung und Kundeninteraktion

E-Commerce-Plattformen nutzen Spracheanalysen, um Kundenwünsche präzise zu erfassen. Chatbots übersetzen Anfragen in 14 Sprachen und liefern produktspezifische Antworten. Ein Modehändler steigerte so die Conversion-Rate um 19%.

Finanzdienstleister identifizieren Betrugsversuche durch Echtzeit-Mustererkennung. Transaktionen werden mit historischen Daten und aktuellen Marktbewegungen abgeglichen. Diese Methode spart jährlich Millionen Euro ein.

Herausforderungen und Risiken

Die Integration intelligenter Systeme bringt komplexe Hürden mit sich, die Unternehmen strategisch meistern müssen. Besonders kritisch sind Datenschutzfragen und Widerstände im Arbeitsalltag, die innovative Lösungen erfordern.

Datensicherheit und Datenschutzaspekte

Die Verarbeitung sensibler Informationen erfordert höchste Sicherheitsstandards. Ein Gesundheitskonzern analysierte 12 Millionen Patientendaten – dabei entstanden neue Anforderungen an Verschlüsselung und Zugriffskontrollen. Die DSGVO verlangt transparente Datenverwendung, was Algorithmen-Entscheidungen nachvollziehbar machen muss.

Beispielsweise nutzt ein europäischer Bankenverbund Echtzeit-Analysen für Betrugserkennung. Die Systeme prüfen dabei gleichzeitig Transaktionsmuster und Kundenstandorte. Solche Szenarien verdeutlichen den Spagat zwischen Effizienz und Compliance.

Komplexität und Akzeptanz bei Mitarbeitern

Technische Umsetzungsschwierigkeiten zeigen sich in vielen Projekten. Eine Studie belegt: 58% der Unternehmen scheitern an der Integration in bestehende IT-Landschaften. Schulungsprogramme und klare Prozessänderungen sind hier entscheidend.

  • Change-Management-Maßnahmen steigern die Nutzungsrate um 73%
  • Interne Schulungen reduzieren Vorbehalte in 8 von 10 Fällen
  • Pilotprojekte mit messbaren Ergebnissen schaffen Vertrauen
Mehr zum Thema:
Lokale LLMs: Welche Vorteile bietet die Nutzung von loakeler KI im Vergleich zu Cloud-Modellen

Ein Logistikunternehmen löste Widerstände durch frühzeitige Einbindung der Belegschaft. Mitarbeiter testeten Prototypen und gestalteten Schnittstellen aktiv mit. Dieser Ansatz verkürzte die Einführungsphase um 14 Monate.

Die Zukunft des Wissensmanagements hängt von der Balance zwischen Technologie und menschlicher Expertise ab. Unternehmen müssen Risiken aktiv managen, um das volle Potenzial intelligenter Systeme auszuschöpfen.

Implementierung von Cognitive Computing

Erfolgreiche Einführungen intelligenter Systeme basieren auf drei Säulen: Datenqualität, technische Infrastruktur und schrittweise Integration. Unternehmen benötigen klare Roadmaps, um Potenziale voll auszuschöpfen.

Datenmanagement und IT-Infrastruktur

Data Lakes sammeln strukturierte und unstrukturierte Daten aus Produktionssystemen, Sensoren und Kundeninteraktionen. Ein Automobilkonzern nutzt diese Technologie, um 12 Millionen Maschinendaten täglich zu analysieren. Cloud-Plattformen wie AWS bieten hier skalierbare Speicherlösungen.

Faktor Traditionell Optimiert
Datenquellen Einzelne Systeme Kombinierte Formate
Verarbeitung Batch-Verfahren Echtzeit-Streaming
Skalierung Physische Server Elastische Cloud

IBM Watson demonstriert in der Praxis, wie Echtzeit-Datenverarbeitung Diagnoseverfahren revolutioniert. Die Technologie kombiniert Laborwerte mit Forschungsdatenbanken und Patiententagebüchern.

Strategieentwicklung und Pilotprojekte

Erfahrungen zeigen: Kleine Testläufe liefern schnelle Erfolge. Ein Logistikunternehmen startete mit der Auslastungsoptimierung von 50 Lkw. Innerhalb von 8 Wochen sanken Leerfahrten um 19%.

Wichtige Schritte für die Einführung:

  • Analyse konkreter Use Cases
  • Schulung interner Expertenteams
  • Iterative Verbesserung der Modelle

NVIDIA AI Enterprise zeigt, wie spezialisierte Hardware Herausforderungen bei Rechenleistung löst. Die Plattform beschleunigt Trainingsphasen neuronaler Netze um das 7-Fache.

Trends und Zukunftsperspektiven

Die Verschmelzung von Quantencomputing und IoT beschleunigt die Leistungsfähigkeit intelligenter Lösungen. Laut Marktprognosen wächst das Technologiefeld bis 2030 um jährlich 27,8% – getrieben durch Anwendungen in Bildungswesen und Energieversorgung.

Neue Technologiekonvergenzen

Edge Computing ermöglicht Echtzeitentscheidungen in Fabriken ohne Cloud-Anbindung. Ein Praxisbeispiel: Sensoren in Windkraftanlagen prognostizieren Wartungsbedarf durch Vibrationsmuster. Gleichzeitig verarbeiten kognitive Systeme unstrukturierte Daten aus Wetterberichten und Lieferketten.

Aspekt Aktuell Zukunftsprognose
Datenverarbeitung Petabyte-Skalierung Exabyte-fähige Architekturen
Lerngeschwindigkeit Wochen Minuten durch Quantenchips
Entscheidungsgrundlage Historische Muster Echtzeit-Simulationen

Gesellschaftliche Implikationen

Algorithmische Fairness wird zum Schlüsselkriterium. Eine EU-Studie zeigt: 68% der Bürger fordern Nachvollziehbarkeit automatisierter Entscheidungen. Banken testen bereits transparente Score-Modelle, die Diskriminierungsrisiken reduzieren.

Regulatorische Rahmenwerke entwickeln sich dynamisch. Die geplante KI-Verordnung der EU sieht Strafen bis zu 6% des Umsatzes vor. Gleichzeitig prognostiziert Gartner: Bis 2025 entstehen durch künstliche Intelligenz 58% mehr Jobs als wegfallen.

Fazit

Die Symbiose aus menschlicher Intuition und maschineller Präzision definiert moderne Lösungsansätze neu. Kognitive Computersysteme zeigen ihre Stärke dort, wo komplexe Datenströme und unscharfe Zusammenhänge schnelle Entscheidungen erfordern. Sie reduzieren Fehlerquoten in kritischen Bereichen und optimieren Prozesse durch adaptive Algorithmen.

Vorteile kognitiver Technologien liegen in ihrer Fähigkeit, Erfahrungswissen mit Echtzeit-Analysen zu verknüpfen. Gleichzeitig erfordern Datensicherheit und transparente Entscheidungswege weiterhin menschliche Kontrolle. Erfolgreiche Implementierungen entstehen nur durch klare Strategien und iteratives Vorgehen.

Zukünftige Entwicklungen werden kognitive Lösungen noch stärker in Alltagsprozesse integrieren – von personalisierter Medizin bis zu nachhaltiger Logistik. Unternehmen, die jetzt fundierte Kompetenzen aufbauen, sichern sich langfristige Wettbewerbsvorteile. Der Schlüssel liegt im intelligenten Zusammenspiel technologischer Möglichkeiten mit menschlicher Expertise.

FAQ

Wie unterscheidet sich Cognitive Computing von klassischer KI?

A: Cognitive Computing simuliert menschliche Denkprozesse, um komplexe Entscheidungen zu unterstützen, während klassische KI oft auf vordefinierte Algorithmen setzt. Systeme wie IBM Watson interpretieren Kontext und Nuancen – etwa in natürlicher Sprache – und lernen kontinuierlich aus Daten.

Welche Branchen profitieren aktuell am meisten?

Das Gesundheitswesen nutzt kognitive Systeme für präzisere Diagnosen (z. B. Bildanalyse in der Radiologie). Finanzinstitute automatisieren Risikobewertungen, und Logistikunternehmen optimieren Lieferketten durch Echtzeitdatenanalyse.

Welche Rolle spielt Natural Language Processing?

NLP ermöglicht die Interaktion zwischen Mensch und Maschine in natürlicher Sprache. Tools wie Microsoft Azure Cognitive Services analysieren Kundendialoge, erkennen Stimmungen und automatisieren Serviceprozesse – etwa in Chatbots oder Voice-Assistenten.

Sind neuronale Netze zwingend erforderlich?

Nicht immer, aber Deep-Learning-Architekturen verbessern die Mustererkennung bei großen Datenmengen. Kognitive Systeme kombinieren oft Machine-Learning-Modelle mit regelbasierten Ansätzen, um sowohl strukturierte als auch unstrukturierte Daten zu verarbeiten.

Wie kritisch sind Datenschutzrisiken?

Der Umgang mit sensiblen Daten – etwa Patientendaten – erfordert DSGVO-konforme Lösungen. Anbieter wie SAS integrieren Privacy-by-Design-Prinzipien, um anonymisierte Analysen und verschlüsselte Datenspeicherung zu gewährleisten.

Welche Infrastruktur ist für die Implementierung nötig?

Essenziell sind leistungsstarke Cloud-Plattformen (AWS, Google Cloud) für Skalierbarkeit sowie Data-Lakes zur Integration heterogener Quellen. Pilotprojekte beginnen oft mit modular aufgebauten APIs, um schrittweise Lernfähigkeit zu testen.

Verdrängen kognitive Systeme menschliche Expertise?

Nein – sie ergänzen sie. Ärzte nutzen Tools wie PathAI zur Unterstützung bei Gewebeanalysen, behalten aber die Entscheidungshoheit. Die Technologie reduziert manuelle Routinetasks, sodass Fachkräfte sich auf strategische Fragestellungen konzentrieren können.

Wie entwickeln sich ethische Standards?

Initiativen wie die EU-KI-Verordnung definieren Transparenzanforderungen für Algorithmen. Unternehmen setzen zunehmend auf Explainable AI (XAI), um Entscheidungsprozesse nachvollziehbar zu gestalten und Diskriminierung zu vermeiden.