Suche nach Titel, AutorIn, RezensentIn, Verlag, ISBN/EAN, Schlagwort
socialnet Logo

Ramón Reichert (Hrsg.): Big Data. Analysen zum digitalen Wandel [...]

Rezensiert von Dipl.-Päd. Dr. Jos Schnurer, 28.10.2014

Cover Ramón Reichert (Hrsg.): Big Data. Analysen zum digitalen Wandel [...] ISBN 978-3-7328-2592-9

Ramón Reichert (Hrsg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie. transcript (Bielefeld) 2014. 496 Seiten. ISBN 978-3-7328-2592-9. 29,99 EUR.

Weitere Informationen bei DNB KVK GVK.

Kaufen beim socialnet Buchversand
Kaufen beim Verlag

Thema

Thema des Buchs ist ein fachübergreifender Theorierahmen als Reflexionsraum zur Auseinandersetzung mit dem datenbasierten Medienumbruch der Gegenwart.

Die wissenschaftlichen Auseinandersetzungen über die Entwicklung und Wandlungsprozesse, die sich im individuellen und gesellschaftlichen Leben der Menschen durch die Neuen Technologien ergeben, werden nicht selten mit Warnrufen begleitet (Manfred Lütz, Bluff! Die Fälschung der Welt, 2012, www.socialnet.de/rezensionen/14059.php), kritisch betrachtet (Geert Lovink, Das halbwegs Soziale. Eine Kritik der Vernetzungskultur, 2012, www.socialnet.de/rezensionen/14329.php) und darauf hingewiesen, dass Medienwirkung und -beeinflussung die realen, individuellen, gesellschaftlichen, lokalen und globalen Wahrnehmungsmuster und Weltbilder verändern (Alexander Brand, Medien – Diskurs – Weltpolitik. Wie Massenmedien die internationale Politik beeinflussen, 2011, www.socialnet.de/rezensionen/12968.php).

Entstehungshintergrund und Herausgeber

Die rasante Entwicklung der medienorientierten und -gesteuerten digitalen Technologien wird bisher überwiegend von den Analyse- und Anwendungsbereichen der Ökonomie, Vertriebs- und Servicesteuerung, Medizin, Verwaltung und Nachrichtendienste bestimmt und aufgenommen. Im wissenschaftlichen Diskurs wird eine medien- und kulturwissenschaftliche Betrachtung bisher weitgehend im Bereich der US-amerikanischen „Big-Data-Research“ vorgenommen. Die dabei angewandten Forschungsmethoden, wie etwa die Text-, Sediment-, Netzwerk- und Bildanalysen basieren auf der Erkenntnis, dass sich das Social Web mittlerweile zur wichtigsten Datenquelle bei der Herstellung und Verwendung von Regierungs- und Kontrollwissen entwickelt hat und in wissenschaftlichen Theorie-, Forschungs- und Beratungszusammenhängen „von datenbasierten und datengesteuerten Wissenschaften“ gesprochen wird. Die sich dabei verändernden Selbstverständnisse, wie auch die lokalen und globalen Erwartungen an Wissenschaftskulturen und Epistologien bewirken, dass die der Big-Data-Research zugrundeliegenden fächerübergreifenden und interdisziplinären Theoriebildungen und Praxisorientierung „eine nuancierte Genealogie der datenintensiven Formen der Wissensproduktion“ erfordern.

Die Forschungsfelder des Herausgebers, des Medienwissenschaftlers an der Universität Wien, Ramón Reichert, sind „Data Studies“ und „Cross Media“. Im Sammelband „Big Data“ lässt er mehr als zwanzig Expertinnen und Experten zu Wort kommen, die das informatische Wissen in ihren Ausprägungen und Wirkungsweisen darstellen und so den aktuellen Entwicklungsstand „zum digitalen Wandel von Wissen, Macht und Ökonomie“ präsentieren.

Aufbau und Inhalt

Der Sammelband wird in fünf Kapitel gegliedert.

  1. Im ersten geht es um „Big Digital Humanities“,
  2. im zweiten um die „Geschichte und Theorie der Daten“,
  3. im dritten um „Digitale Methoden“,
  4. im vierten um „Dataveillance: Algorithemen, Graphen und Protokolle“ und
  5. im fünften Kapitel um „Digitale Technologien und soziale Ordnungsvorstellungen“.

Im ersten Kapitel fragt der Medienwissenschaftler vom „Centre national d´art et de culture Georges Pompidou“ in Paris, Bernard Stiegler, mit seinem Text „Licht und Schatten im digitalen Zeitalter“ danach, wie sich Kognition, Technik und Wissen in der menschlichen Entwicklung und im menschlichen Gedächtnis als Epiphylogenese entwickelt hat. Er geht davon aus, dass die „Digitalisierung unserer Existenz“ nur dann zu verstehen ist, wenn es gelingt, die darwinsche Biologie zu überwinden. „Wir müssen das Studium der Hypermaterialität von Wissen im Rahmen einer allgemeinen Organologie ansiedeln, die die Träger und Instrumente von jeder Form von Wissen studiert“.

Der Medien- und Kommunikationswissenschaftler von der Universität Sussex, David M. Berry, macht sich mit seinem Beitrag „Die Computerwende“ Gedanken zu den Digital Humanities. Dabei betrachtet er die Wirkungen und Phänomene, „die sich um die grundlegende digitale Berechenbarkeit der Formen konzentriert, die in einem Computermedium enthalten sind“. Er benutzt dabei die „Critical Code Studies“, die es ihm ermöglichen, Fragen nach dem Wissen über das Wissen zu stellen, um die „ontischen wie die ontologischen Dimensionen des Computercodes (zu) begreifen“.

Lev Manovich von der University of Califormia in San Diego diskutiert mit seinen Ausführungen über „Trends“ Verheißungen und Herausforderungen der Big Social Data. Er stellt fest, dass bis heute die Datensätze und -umfänge, die in der geistes- und sozialwissenschaftlichen Forschung benutzt werden, erheblich kleiner sind als die in den Naturwissenschaften verwendeten. Er unterscheidet dabei zwischen „Oberflächendaten“, die für viele Menschen und Objekte zur Verfügung stehen, und „tiefe Daten“ für wenige Menschen. Für die geistes- und sozialwissenschaftliche Forschung bedarf es einer kritischen Nachfrage, ob denn „die Oberfläche die neue Tiefe ist“, und welche Schwierigkeiten sich bei dieser Sichtweise ergeben. „Wir möchten, dass Geisteswissenschaftler in der Lage sind, in ihrer täglichen Arbeit Datenanalysen und Visualisierungssoftware zu nutzen, damit sie in ihrer Arbeit quantitative und qualitative Methoden kombinieren können“.

Federica Frabetti, Senior Lecturer für Communication, Media und Culture an der Oxford Brookers University, wendet sich mit ihrem Beitrag „Eine neue Betrachtung der Digital Humanities im Kontext originärer Technizität“ gegen die Vorstellung, „dass die Geisteswissenschaften traditionellerweise auf einem klar identifizierbaren Set gemeinsamer Werte basieren und sich säuberlich von technologischen Konzepten unterscheiden lassen“. Sie plädiert dafür, Computerarbeit und geisteswissenschaftliche Arbeit nicht als zwei getrennte, möglicherweise sogar konträre Einheiten zu verstehen. Sie sieht vielmehr in den Digital Humanities einen Schlüssel für das gemeinsame Bemühen, „Digitalität“ in einen kritischen, historischen und aktuellen Zusammenhang zu stellen.

Im zweiten Kapitel setzt sich der Anthropologe von der University of California, Tom Boellstorff, mit der „Konstruktion von Big Data in der Theorie“ auseinander. Dabei geht es ihm in erster Linie um die notwendige Begriffsklärung, angesichts des Hype „Big Data“ (er schreibt den Begriff bewusst nicht mit Großbuchstaben). Er diskutiert vier Möglichkeiten, um eine tragfähige „große Theorie“ für das bedeutsame Phänomen vorzubereiten: Er weist zum einen darauf hin, dass in der historischen Betrachtung der Begriff als „überholte Theorie“ betrachtet werden kann, dass die Bedeutung von „Metadaten“ nicht nur als Klassifizierungsmerkmal anzusehen ist, sondern in gleicher Weise Macht- und Kontrollprozesse bewirkt, dass es einer (neuen) „Dialektik von Überwachung und Anerkennung“ bedarf, und dass die Interpretation über „verrottete Daten“ und „dichte Daten“ eine Aufmerksamkeit erfordern, um „Probleme von Zeit, Kontext und Macht“ thematisieren zu können.

Der Historiker von der University of Oregon, Daniel Rosenberg, reflektiert mit seinem Beitrag „Daten vor Fakten“ die Entstehungs- und Wirkungsgeschichte des Begriffs „Daten“. Mit einer Reihe von Belegen und Prozessen zeigt er auf, wie „data“ in der Geschichte als „rhetorischer Begriff“ verwendet wurde und damit eine semantische Struktur aufweist. Diese interessante Begriffs- und Quellenarbeit verdeutlicht, dass „Daten keine Wahrheit haben“, also auch keine Mutmaßungen über den Wahrheitsgehalt beanspruchen können.

Auch Theo Röhle, wissenschaftlicher Mitarbeiter am Institut für Medienforschung an der Hochschule für Bildende Künste in Braunschweig, zeigt mit „Big Data – Big Humanities?“ eine historische Perspektive auf. Er weist auf die Geschichtsvergessenheit im Diskurs um die medientechnische Entwicklung und Digital Humanities hin und skizziert die Debatte, wie sie sich seit Mitte der 1960er Jahre gestaltet. „Hier wäre es lohnenswert, die Perspektive auf die Humanities als ‚Markt‘ aufzugreifen und der Frage nachzugehen, welches Interesse unterschiedliche Förderinstitutionen mit ihrem finanziellen Engagement verbinden“.

Richard Rogers, Professor für Neue Medien und Digitale Kultur an der Universität in Amsterdam, untersucht mit seinem Beitrag „Nach dem Cyberspace: Big Data, Small Data“ den Status und die Bedeutung des Internets als Datenquelle. Er geht mit einer Neuinterpretation des Internets als Datensammlung an die Thematik heran und fragt nach der Bedeutung des Datensatzes für die Sozial- und Kulturforschung, diskutiert die Forderungen und Geschäftigkeiten (etwa bei Google), „online aufzuräumen“ und verdeutlicht den Zusammenhang zwischen digitalisierten und native digitalen Daten. Daraus ergeben sich neue Forschungsfragen und -notwendigkeiten für die Sozial- und Politikforschung.

Das dritte Kapitel beginnen Jean Burgess und Axel Bruns von der australischen Queensland University of Technologie in Brisbane mit ihrer Auseinandersetzung über „Twitter-Archive und die Herausforderungen von ‚Big Social Data‘ für die Medien- und Kommunikationswissenschaft“. Sie verweisen darauf, dass Listen und Listungen als Ordnungsmechanismen für computervermittelte, soziale Interaktionen gelten. Sie thematisieren technische, politische und epistemologische Fragen. Sie regen die „Entwicklung einer robusteren, belastungsfähigen Kenntnis der konzeptionellen Modelle und methodischen Prioritäten (an), die durch die Funktion sowohl der Werkzeuge als auch der Quellen, die wir für ‚Big Social Data‘-Forschung nutzen“.

Carolin Gerlitz und Bernhard Rieder von Mediastudies Department der Universität Amsterdam stellen mit ihrem Beitrag „Data-Mining von einem Prozent Twitter – Sammlungen, Basislinien, Stichproben“ die Möglichkeiten und Probleme zum Angebotscharakter verschiedener Techniken zur Erstellung von Twitter-Sammlungen vor und weisen anhand von Streaming (API) -Angeboten auf die Unbestimmtheiten von Plattformen hin. Mit dem vorgestellten Studien- und Forschungsprojekt verweisen sie hinsichtlich des Mining von sozialen Medien auf drei Schlussfolgerungen hin: Datenpunkte lassen sich in verschiedene Beziehungen zueinander setzen; beim Sampling lassen sich Beziehungen zwischen Teilen, Ganzen und dem Medium herstellen, was der Forschung ermöglicht, die Aufmerksamkeit entweder auf eine Thematik oder auf die Mediendynamik zu richten; schließlich: Durch von der Streaming AP angebotenen Stichproben können als Basislinie für Fallstudienmethoden dienen.

Die Kommunikations- und Medienwissenschaftlerin von der Heinrich-Heine-Universität in Düsseldorf, Merja Mahrt und der Kommunikationswissenschaftler von der Universität Hohenheim, Michael Scharkow, thematisieren den „Wert von Big Data für die Erforschung digitaler Medien“. Sie verweisen auf methodische Probleme, diskutieren die Bedeutung der Online-Forschung und beziehen die Möglichkeiten von Big-Data-Forschung in ihre Überlegungen ein. Wichtig ist dabei, dass Kommunikations- und MedienwissenschaftlerInnen bei ihren Ausbildungs- und Forschungsansätzen Methodenkenntnis und -nutzung beherrschen.

Die Wissenschaftliche Mitarbeiterin im Datenarchiv für Sozialwissenschaften bei GESIS-Leibnitz-Institut für Sozialwissenschaften in Mannheim, Katrin Weller, debattiert „Twitter und Wahlen“, indem sie auf die zunehmende Bedeutung bei der Erforschung von Social-Media-Diensten hinweist. Bei der Untersuchung von politischen Situationen und Krisen erhält die Bibliometrie eine wichtige Quellen-, Deutungs- und Beratungsaufmerksamkeit. Die Autorin stellt die Möglichkeiten anhand einer Bestandsaufnahme von Publikationen vor, die sich mit Twitter im Kontext von Wahlen befassen. Sie zeigt auf, welche Herausforderungen und Forschungsaktivitäten sich dabei anbieten.

Der Medientheoretiker vom Germanistischen Seminar der Universität Siegen, Johannes Paßmann, beginnt seinen Beitrag „From Mind to Document and Back Again“ mit einem Bündel von Fragen zur Reflexivität von Social- Media-Daten. Zirkuläre Effekte zwischen Daten und verdateten Sachverhalten haben in zahlreichen theoretischen und praktischen Aktivitäten eine Bedeutung. Am Beispiel von Twitter-Äußerungen stellt der Autor mehrere Reflexionsformen vor und systematisiert sie in dem Dreiecks-Modell von interdependenten Formen von Reflexivität: Ästhetik – mögliche Ordnung – mögliche Konsequenzen.

Im vierten Kapitel problematisieren Alexander Galloway von der New York University und Eugene Thacker von der New School in New York den Diskurs über Netzwerke mit ihrem Beitrag „Protokoll, Kontrolle und Netzwerke“. Mit der Frage: Welches Prinzip der politischen Organisation oder Kontrolle knüpft ein Netzwerk?, setzen sie sich mit den Formen auseinander, wie sie sich in der Graphentheorie finden. Sie kommen zu dem Ergebnis: „Das Set von Verfahren zur Überwachung, Regulierung und Modulierung von Netzwerken als lebendige Netzwerke ist auf der grundlegendsten Ebene auf die Produktion von Leben in seinen biologischen, sozialen und politischen Kapazitäten ausgerichtet“.

Der in London und Berlin lebende Philosoph und Netzaktivist Matteo Pasquinelli informiert über „Italienische Operaismo und die Informationsmaschine“. Er thematisiert die Entwicklung, wie sie sich als Bifurkation zwischen Energie und Information in der industriellen Revolution zeigt und breitet den Diskurs und die Veränderungsprozesse der Arbeitsteilung der geistigen Arbeit aus, wie sie sich bei Marx, Babbage und anderen Theoretikern zeigen und sich im italienischen Operaismo darstellen. In der „Big Data“ – Gesellschaft zeigen sich die Metadaten dadurch, „den Wert von sozialen Beziehungen zu messen, … das Design von Maschinen und maschineller Intelligenz zu verbessern und … Massenverhalten zu überwachen und vorherzusagen“.

Annika Richterich von der Universität Maastricht stellt mit ihrem Beitrag „Infodemiologie – von Supply zu Demand“ die Geschichte und transaktionale Entwicklung der Anwendung von Big Data bei „Google Flu Trends“ und in der epidemiologischen Forschung und Praxis dar. Sie zeigt die Problematik auf, die sich durch die eingeschränkte Zugänglichkeit und Nutzung von transaktionalen Daten, wie sie etwa bei Google Trends erhoben werden, in Fällen von Situationen des Allgemeininteresses ergeben. „Es erscheint … grundsätzlich fraglich, ob man Persönlichkeitsrechte in Zeiten von Big Data allein auf einzelne Individuen beziehen sollte, oder ob dies auch für die Datensammlung bestimmter Populationen gilt“.

Christoph Engemann von der DFG Kollegforschergruppe „Medienkulturen der Computersimulation“ an der Leuphana-Universität in Lüneburg, bezieht sich mit seinem Beitrag „You cannot not Transact“ auf die Zusammenhänge von Big Data und Transaktionalität. Seine Definition, dass „Transaktionsprozesse niemals immediat, sondern implementieren notwendig Aufschübe des Übertrags, registrieren die Differenzen zwischen den Transaktionsbeteiligten und Kennen Vorkehrungen für Störungen des Übertragungsprozesses“. Mit seiner „Genealogie von Transaktionalität“ schneidet er eine notwendige Schneise in das Gewirr von Begrifflichkeiten, Zuschreibungen und Theoriebildungen.

Das fünfte Kapitel beginnt der Wissenschaftliche Mitarbeiter beim Lehrstuhl für Medientheorien des Fachgebiets Medienwissenschaft an der Berliner Humboldt-Universität, Stefan Höltgen, mit seinem Beitrag „All Watches Over by Machines of Loving Grace“, indem er sich mit öffentlichen Erinnerungen, demokratischen Informationen und restriktiven Technologien am Beispiel der „Community Memory“ in den Diskurs einbringt. Er verweist auf die Entstehungs- und Wirkungsgeschichte des „Community-Memory-Projekts“, das anfangs der 1970er Jahre in der California Bay Area entstand, und er fragt, angesichts des heutigen Big Data, nach den Veränderungsprozessen und Wirkweisen von Datennutzung und -macht.

Die Zürcher Medienwissenschaftlerin Regine Buschauer meldet sich mit dem Beitrag „(Very) Nervous Systems. Big Mobile Data“ zu Wort. Angesichts der „als pervasiv angeschriebenen Medien und einer mobil entgrenzten Datenproduktion“, stellt die Autorin – gegenwartsorientiert – eine „Medien- und Kommunikationsgeschichte der technischen Systeme“ vor. Sie diskutiert die technischen „Nervensysteme“, informiert über die Geschichte der Mobilkommunikation und zeichnet die Wege der Daten- und Verkehrsströme nach.

Ramón Reichert bringt sich in den Diskurs mit seinem Beitrag „Facebooks Big Data“ ein, indem er über die Medien- und Wissenstechniken kollektiver Verdatung reflektiert. Er zeigt die Arbeitsweisen und Programmatiken (und Manipulationen) des Facebook Data Teams auf und fragt nach den Gründen des „Facebook Happiness“. Bezogen auf die Zugangs-, Zugriffs- und Verwertungsaspekte von Quellensammlungen und -materialien der Sozialen Netzwerke für die sozialwissenschaftliche Forschung gilt die Obacht, „dass Prognosetechniken immer auch als Machttechniken angesehen werden können… (und) dass soziale, politische und ökonomische Entscheidungsprozesse hochgradig von der Verfügbarkeit prognostischen Wissens abhängig gemacht werden“.

Martin Doll von der Université du Luxembourg arbeitet beim ATTRACT-Projekt „Ästhetische Figurationen des Politischen“ mit. Er thematisiert mit seinem Beitrag „Sozio-technische Imaginationen“ die Fragestellungen, wie sich Social Media zwischen „Digital Nation“ und „pluralistischem Kosmopolitismus“ etabliert. Er stellt die Theorierahmungen und Konzepte vor, die sich im Zusammenhang mit den gewordenen und aktuellen „Ausprägungen technikgestützter Kollektivität“ ergeben und die Imponderabilien zwischen Liberalismus und Kosmopolitismus aufzeigen.

Fazit

BIG DATA (oder Big Data) ist überall! Die wissenschaftlichen Auseinandersetzung über Entstehungsgeschichte(n), Wirkungsweisen, Wege, Irrwege, Gegenwarts- und Zukunftsbedeutungen des datenbasierten Medienumbruchs sind in vollem Gange. Wichtig – und bisher eher als nachrangig zu den ökonomischen Aspekten des Medienhype um „Big Data“ gesetzt – ist eine medien- und kulturwissenschaftliche Betrachtung der digitalen Forschung. „Big Data Research“ in ihren unterschiedlichen Ausprägungen und Anwendungsformen ist zwar mittlerweile bereits in Ansätzen in der deutschen Forschungslandschaft angekommen; der Diskurs – und gar die interdisziplinäre Anwendung – jedoch bedarf es einer stärkeren Aufmerksamkeit. Die Autorinnen und Autoren des Bandes „BIG DATA“ zeigen mit ihren Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie Wege dafür auf.

Rezension von
Dipl.-Päd. Dr. Jos Schnurer
Ehemaliger Lehrbeauftragter an der Universität Hildesheim
Mailformular

Es gibt 1631 Rezensionen von Jos Schnurer.

Besprochenes Werk kaufen
Sie fördern den Rezensionsdienst, wenn Sie diesen Titel – in Deutschland versandkostenfrei – über den socialnet Buchversand bestellen.


Zitiervorschlag
Jos Schnurer. Rezension vom 28.10.2014 zu: Ramón Reichert (Hrsg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie. transcript (Bielefeld) 2014. ISBN 978-3-7328-2592-9. In: socialnet Rezensionen, ISSN 2190-9245, https://www.socialnet.de/rezensionen/17608.php, Datum des Zugriffs 30.11.2023.


Urheberrecht
Diese Rezension ist, wie alle anderen Inhalte bei socialnet, urheberrechtlich geschützt. Falls Sie Interesse an einer Nutzung haben, treffen Sie bitte vorher eine Vereinbarung mit uns. Gerne steht Ihnen die Redaktion der Rezensionen für weitere Fragen und Absprachen zur Verfügung.


socialnet Rezensionen durch Spenden unterstützen
Sie finden diese und andere Rezensionen für Ihre Arbeit hilfreich? Dann helfen Sie uns bitte mit einer Spende, die socialnet Rezensionen weiter auszubauen: Spenden Sie steuerlich absetzbar an unseren Partner Förderverein Fachinformation Sozialwesen e.V. mit dem Stichwort Rezensionen!

Zur Rezensionsübersicht