Gesamten Artikel als PDF herunterladen 
 Feedback bitte an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein! 



<<
    Inhalt     >> 


 

1.2      Big Data und Informationsexplosion

Die Wissensexplosion und die Verteilung von Informationen aus menschlichen Aktivitäten oder aus Maschinen sowie Software nehmen kaum vorstellbare Dimensionen an.

Unter „Big Data“ versteht man Datenmengen, die aufgrund ihrer Größe, ihrer Komplexität, der Geschwindigkeit ihrer Entstehung sowie ihrer Übertragung, der Vielfalt ihrer Datentypen und -quellen sowie v. a. aufgrund ihrer schwachen oder fehlenden Strukturierung mit herkömmlichen Datenverarbeitungsmethoden nicht mehr auswertbar sind.

„Hintergrund der Diskussionen um Big Data ist der starke Anstieg des weltweiten Datenvolumens. Eine Vielzahl unterschiedlicher Quellen ist dafür verantwortlich: Sensordaten, Maschinendaten, Log-Daten, das WordWideWeb oder RFID-Chips. Im Jahre 2011 knackte das weltweite Datenvolumen die Zettabyte-Barriere (1 mit 21 Nullen) und ein Ende des Wachstums ist nicht in Sicht. 2020 sollen es bereits 35 Zettabyte sein.” (http://www.softselect.de/wissenspool/big-data, Zugriff 13.02.2017)

Typische Quellen und Arten von Big Data sind:

  • Sprachdaten (v. a. auch mehrsprachig)
  • Daten, die von Behörden oder Unternehmen gesammelt und produziert werden
  • Informationen und Interaktionen aus sozialen Netzwerken
  • Nutzungsdaten (z. B. Reise-/Bewegungsdaten, Gesundheitsdaten-Tracking) von Geräten oder Systemen wie Navigationssysteme, Smartphones, Wearables
  • vernetzte Technik im Alltag (z. B. in Häusern und Kraftfahrzeugen) und in der Produktion (Smart Factory, vgl. Abschnitt 1.3)

Die Aufgabe von Wissensspezialisten ist es, aus diesen vielen Quellen und Beständen Wissen zu generieren, das zu unterschiedlichen Zwecken verwendet werden kann.

Letztlich wird das Big-Data-Phänomen durch die Mehrsprachigkeit noch um ein Vielfaches verstärkt. Die ohnehin schon unbeherrschbare Menge an Daten wird durch die Multiplikation in viele Sprachen schier endlos. Gerade hier sind also weitere Verfahren notwendig, um die Informationen aus diesen mehrsprachigen Daten zugänglich zu machen und in computerlesbares Wissen umzuwandeln.

Während viel über Big Data gesprochen wird, darf jedoch nicht übersehen werden, wie wichtig es ist, auch brauchbare Ansätze zur Verarbeitung kleinerer Datenbestände (Small Data) zu entwickeln. Auch kleinere Datenpakete (z. B. Konversation in Echtzeit) müssen so aufbereitet werden, dass sie für Menschen und/oder Maschinen verständlich und verarbeitbar sind.

 



<<     Inhalt     >> 



© 2017 DIT (Deutsches Institut für Terminologie e.V.)
Petra Drewer, François Massion, Donatella Pulitano


 

Aktuelles

  • DTT-Vertiefungsseminar: „Terminologiearbeit – Projekte, Prozesse, Wissensordnungen, Daten-Engineering“

    Termine: 14./15., 21./22. und 29./30. November 2024 Ort: Online

    Weiterlesen...

  • DTT-Grundlagenseminar: „Terminologiearbeit – Grundlagen, Werkzeuge, Prozesse“

    Termin: Freitag, 27. September 2024, 9:00 - 16:30 Uhr Ort: LEONARDO KARLSRUHE, Ettlinger Straße 23, 67137 Karlsruhe

    Weiterlesen...

  • DTT-Webinar: „Neuronale Maschinelle Übersetzung: Möglichkeiten der Terminologieforcierung (am Beispiel von DeepL)“

    Termin: 23. Mai 2024, 14:00 - 15:00 Uhr Ort: Online

    Weiterlesen...

  • DTT-Webinar: „Terminologiearbeit und generative KI (am Beispiel von ChatGPT) – Prognose einer glücklichen Ehe“

    Termin: 13. Februar 2024, 10:00 - 11:30 Uhr Ort: Online

    Weiterlesen...

  • DTT-Förderpreis 2024/2025: Einreichungen ab sofort möglich

    Frei nach dem Motto "nach dem Spiel ist vor dem Spiel" geht es wieder in die nächste Runde. Auch 2024/2025 vergeben wir unseren DTT-Förderpreis für...

    Weiterlesen...

  • DTT-Vertiefungsseminar: „Terminologiearbeit – Projekte, Prozesse, Wissensordnungen, Daten-Engineering“

    Termine: 9./10., 23./24. November und 1./2. Dezember 2023 Ort: Online

    Weiterlesen...