eipcp transversal unsettling knowledges
02 2012
print

Fragmentierte Kollektive

Zu Politiken der ‚kollektiven Intelligenz’ in elektronischen Netzwerken

Raimund Minichbauer

Raimund Minichbauer

biography


languages

Deutsch
English

transversal

unsettling knowledges

Der Begriff der ‚kollektiven Intelligenz’ lässt gerade im Kontext linker Diskurse eine gewisse Selbstevidenz und die direkte Anbindung an Diskussionen über Kollektivität, den General Intellect, das emanzipatorische Potenzial der Kooperation etc. erwarten. Er wird auch immer wieder verwendet, sei es bei Virno[1], Negri/Hardt[2], Rancière[3] oder etwa auch auf der Website der Plattform UniNomade, welche sich selbst als “Abenteuer der kollektiven Intelligenz”[4] bezeichnete. Er bleibt aber, trotz der meist positiven bis euphorischen Bewertungen[5], letztlich marginal.

Folgt man den Verwendungen des Begriffs etwas weiter, landet man oft bei sehr merkwürdigen Themen, die von neoliberalen Geschäftsmodellen über naiven Kommunitarismus bis zu Esoterik und Parapsychologie reichen, und es stellt sich bald die Frage, ob der Begriff in linken Kontexten überhaupt verwendbar ist. Ich möchte mir dazu in diesem Text die Einsätze des Begriffs in Diskursen über aktuelle Produktionsformen und Arbeitsrealitäten[6], primär im Kontext elektronischer Netzwerke, näher ansehen.

Meine Untersuchung setzt ein am Beginn des 21. Jahrhunderts, als sich die technischen und konzeptionellen Entwicklungen im Internet so weit verdichten, dass eine qualitativ neue Situation entsteht, die bald unter dem Schlagwort „Web 2.0“, später in einem breiteren Verständnis von „Social Media“ zusammengefasst werden wird.


Das effektive Individuum

Die Vorgeschichte reicht aber noch mindestens weitere vierzig Jahre zurück. Der Ausdruck ‚kollektive Intelligenz’ wurde im Zusammenhang mit Kommunikation und Kooperation mittels vernetzter Computer vermutlich Mitte der 1970er Jahre erstmals verwendet[7], im Kontext des sich gerade formierenden Forschungs- und Praxisfeldes der sogenannten „Computer Supported Cooperative Work“ (CSCW)[8].

Deren Pionier, Douglas Engelbart, hatte Anfang der 1960er Jahre in Kalifornien ein Forschungszentrum ins Leben gerufen, das sich mit der Stärkung (augmentation) des menschlichen Intellekts mittels Computer beschäftigte. Das Augmentation Research Center arbeitete einerseits noch in der Tradition der tayloristischen Zeit- und Bewegungsstudien, um mit diesen Mitteln zur Optimierung der Ausbeutung von Fließbandarbeit etwa die ergonomische Überlegenheit der Computermaus gegenüber anderen pointing tools herauszuarbeiten[9].

Es ging andererseits aber weit darüber hinaus um Fragen von Arbeitsorganisation und Teamarbeit. Hier wurden nicht nur Kommunikations- und Kooperationstools entwickelt, die in das Online-System NLS einflossen, sondern ein Experiment gestartet, in dem sich das Forschungsteam zum eigenen Untersuchungsobjekt machte und das Engelbart später als gleichermaßen Verhaltensforschungs- wie Informatikexperiment bezeichnen wird[10].

In das Experiment wurden mitunter auch Ansätze integriert, die aus der Bewegung von 1968 kamen, von Yoga über New Age Seminare für Persönlichkeitsbildung bis zur Konsultation von Maos Rotem Buch zu Konzepten von Revolutionierung/Innovation[11]. Gerade als die Gruppe endgültig ins Zentrum der Forschungsarbeit gesetzt werden sollte, zerbrach das Research Center aber, nicht zuletzt am Widerspruch zwischen dem reaktionären institutionellen Background aus militärischer Finanzierung und Konzernkooperation einerseits und der zunehmenden politischen Radikalisierung der jungen Teammitglieder andererseits[12].

Interessant an dieser Pioniertat im Bereich von Kooperation und Teamwork mittels Computer ist, dass an seinem Ausgangspunkt eine Setzung des Individuums als Zentrum einer neuen Wissensordnung steht, gleichsam die ‚Erfindung des users’[13]: Engelbart hat das 1960 in einem Beitrag auf einer dokumentationswissenschaftlichen Tagung ausgeführt, in dem er fordert, ergänzend zur gleichsam objektivistischen Wissensordnung etwa in bibliographischen Systemen, auch die Perspektive des Individuums auf die Organisation von Information zum Gegenstand wissenschaftlicher Forschung zu machen[14].

Engelbart wird mehr als zehn Jahre später dieses Individuum mit dem Begriff des ‚knowledge workers’ in Beziehung setzen und dabei die Definition des Managementtheoretikers Peter Drucker verwenden: „the person who creates and applies knowledge to productive ends, in contrast to an ‘intellectual’ for whom information and concepts may only have importance because they interest him.”[15] In vielen Bereichen der späteren Diskurse um ‚kollektive Intelligenz’ wird diese Ausrichtung des Wissens auf ‘produktive Ziele’ gleichsam den Kern der Definition von ‘Intelligenz’ ausmachen.

Das Individuum wird übrigens auch – als Vielfalt und als eigentlicher Horizont aller Kollektivität – in der ersten größeren geisteswissenschaftlichen Arbeit zum Thema zu finden sein. Pierre Lévy hält in seinem 1994 erschienen Buch Die kollektive Intelligenz. Eine Anthropologie des Cyberspace fest, dass „Grundlage und Ziel der kollektiven Intelligenz gegenseitige Anerkennung und Bereicherung [ist] und nicht ein Kult um fetischisierte, sich verselbständigende Gemeinschaften“, und setzt letzteren explizit „das Individuum“ entgegen[16].


„bottom-up revolution“

Zurück im 21. Jahrhundert: Für den Diskurs um ‚kollektive Intelligenz’ sind die Entwicklungen im Internet, die zum sprunghaften Anstieg der Partizipationsmöglichkeiten führen, der naheliegendste Bezugspunkt. Wenn etwa Tim O’Reilly in seinem 2005 erschienen Text, der das Schlagwort vom Web 2.0 bekannt macht, die Nutzung der kollektiven Intelligenz zur zentralen Stärke der Internetkonzerne, die trotz des Crashs von 2001 boomen, und damit zur neuen Ressource erklärt, auf deren Basis sich die Softwareindustrie wieder konsolidieren könne[17], liegt die Bedeutung dieses Bereichs klar auf dem Tisch.

In der Literatur hat sich sehr schnell ein Kanon an berühmten Beispielen für ‚kollektive Intelligenz’ herausgebildet, der von primär durch gleichsam statistische Aggregationsmodelle bestimmten Methoden wie etwa in Googles PageRank-Algorithmus (der jeden auf eine Seite zeigenden Link als Voting für deren Relevanz betrachtet und dies – nach eingehenden Links der Ursprungsseite gewichtet – als zentrales Kriterium für die Reihung von Suchergebnissen verwendet[18]) bis zu stark durch bewusste User_innenentscheidungen bestimmten Modellen, wie etwa Wikipedia, reicht.

Wichtige Bezugspunkte sind aber ebenso die Organisationstheorie und Managementpraxis. Die sich rasch verbessernden Möglichkeiten, die Koordination von Kooperation in Software und der Konstruktion der elektronischen Netzwerke gleichsam zu ‚automatisieren’, senken innerbetrieblich die Notwendigkeit zu deren Einbindung in rigide Hierarchien und öffnen tendenziell gleichzeitig die Grenzen der Organisation.

Der in den Theorien von Postfordismus und kognitivem Kapitalismus kritisch behandelte Aspekt, dass diese ‚Automatisierung’ vor allem auch darauf basiert, dass auf das Selbstorganisationspotenzial der Mitarbeiter_innen zurückgegriffen wird, verschwindet hinter der Feststellung einer allgemeinen ‚bottom-up revolution’[19]. Gleichzeitig entwickeln sich Technik und Methodik weiter und es werden neuere Lösungen sichtbar, in denen die Koordination vergleichsweise einfacher Aufgaben tatsächlich praktisch ausschließlich über Software erfolgt, vor allem wenn sie ins Internet ausgelagert werden.

Die wesentlichste Voraussetzung, die die Organisation von Teamarbeit schaffen muss, nämlich die Aufgabe in sinnvolle, praktikable und leicht wieder aggregierbare Teilaufgaben zu zerlegen, ist in einzelnen Bereichen durch IT so weit optimiert worden, dass Aufgaben gleichsam pulverisiert werden in kleinste Elemente, die für Menschen mit sehr verschiedenen Fähigkeiten und zeitlichen Möglichkeiten Voraussetzungen schaffen, zur Lösung der Gesamtaufgabe beizutragen.

Die Konzepte und Praxen ‚kollektiver Intelligenz’ verbreiten sich mit und parallel zu „Web 2.0“ und „Social Media“ nicht nur, weil im ‚Mitmachweb’ viele User_innen in derartige Webangebote involviert werden, sondern auch, weil die Modelle zur breiten Nachahmung propagiert werden. So wird schließlich ein Paper des aus der Management School des renommierten MIT hervorgegangenen „Center for Collective Intelligence“ verschiedene Modelle explizit in ein Baukastensystem von Genen und Genomen zerlegen, um sie besser reproduzierbar zu machen.[20]

Ich möchte kurz auf zwei Bereiche näher eingehen: Auf das Konzept des Crowdsourcing, also die Auslagerung von Aufgaben ins Internet, wodurch ‚kollektive Intelligenz’ in engen Zusammenhang gebracht wird mit Entwicklungen, die auch unter dem Begriff der ‚immateriellen Arbeit’ theoretisiert werden, und auf den postmodernen Managementhype der Prognosemärkte, der sie stark in Zusammenhang bringt mit neoliberaler Ideologie.


Vom „business by accident“ zum „home sweatshop“

Die Stärke der Open Source Bewegung war schon in den 1990er Jahren sichtbar geworden. Während ein Konkurrenzunternehmen nach dem anderen an der immer monopolähnlicheren Stellung von Microsoft scheiterte, erwiesen sich die Open Source Projekte als durchaus überlebensfähig – mit dem Linux Betriebssystem und später dem äußerst erfolgreichen Apache Webserver als den vielleicht prominentesten Beispielen.

Man konnte daraus zwei verschiedene Schlüsse ziehen: Einerseits den tendenziell antikapitalistischen – in der Praxis aber meist sehr systemkonform vorgetragenen –, dass hier eine neue Logik sozialer Produktion sichtbar werde, die nicht den Gesetzen von Konkurrenz, Eigentum und Gewinnorientierung folge. Andererseits war das Phänomen aber auch unmittelbar kapitalistisch interpretier- und verwertbar: Als eine Form der Organisation von Produktion, die unter bestimmten Umständen effizienter ist als jene des Unternehmens.

Der vermutlich 2006 eingeführte Begriff “Crowdsourcing” repräsentiert diese letztgenannte, prokapitalistische, Position, indem er sich praktisch primär auf gewinnorientierte Aspekte bezieht, gleichzeitig als Begriff aber nicht darauf beschränkt, sondern das Phänomen in seiner Gesamtheit zu erfassen beansprucht. Insofern ist der Begriff mehr noch als durch den Bezug auf die Gewinnorientierung durch seine “Außenperspektive” gegenüber der “Crowd” oder “Community” fassbar.

Gerade in den Anfängen der Open Source und Free Software Bewegungen bildete die Online-Community gleichsam den Ursprung der Perspektive. Aus ihr heraus wurde entschieden, welche Tools, Entwicklungen etc. sinnvoll waren, und ihr Reputationssystem erfüllte nicht einfach nur eine Funktion im Produktionsprozess, sondern bildete einen wesentlichen Horizont des Engagements der Beteiligten.

Schon der Anklang an “Outsourcing” hingegen ist ein mehr als deutlicher Hinweis darauf, dass bei Crowdsourcing-Konzepten die anvisierte Handlungsperspektive und die Crowd/Community als Ort der Produktion deutlich auseinanderfallen, dass damit auch die Perspektive von inhaltlicher Selbstorganisation hin zu Management verlagert wird.

Jeff Howe, der den Begriff vermutlich geprägt hat, sieht in einem „Status Update“ in der 2009 erschienen Neuauflage seines Buches die Implikationen des Konzeptes schon viel düsterer als noch bei der Erstauflage im Jahr zuvor: Inzwischen hatte die Finanzkrise die Unternehmen noch stärker zur Kostensenkung veranlasst, gleichzeitig das Arbeitslosenheer vergrößert, und damit zentrale Voraussetzungen dafür geschaffen, die negativen Seiten des Crowdsourcing stärker in den Vordergrund zu drängen.

Das Bild prägen jetzt nicht mehr die schillernden Geschichten über millionenschwere IT-Unternehmen, die mehr oder weniger zufällig aus den Ideen einiger findiger Jungabsolventen entstanden seien, die eigentlich nur etwas Cooles für ihre Community machen wollten, sondern die bitteren Realitäten nochmals verschärfter Arbeitsverhältnisse: “We could well be seeing the emergence of the home sweatshop, with people’s productivity and work habits closely monitored via their computers. Two years ago such a vision seemed ridiculous on its face. Now it strikes me as inescapable.”[21]

Howe sieht in seinem Buch als eine der vier Voraussetzungen für Crowdsourcing die Entstehung einer neuen Art von Amateur_innen[22], die er auf die Verbreiterung des Zugangs zur Bildung nach dem Zweiten Weltkrieg zurückführt. Was etwa Carlo Vercellone als Erfolg der Arbeiter_innenklasse zu einem Ausgangspunkt seiner Analyse des kognitiven Kapitalismus nimmt[23], gerät Howe zur „Overeducation of the Middle Class“[24]. Von der für die entsprechen­den Arbeitsmärkte viel zu großen Zahl der Kunststudent_innen über als Finanzberater_innen arbeitende Chemiker_innen bis zu Naturwissenschaftler_innen, die nach einem langweiligen Arbeitstag im Labor hoffen, auf InnoCentive[25] eine knifflige Fragestellung zu finden, reichen die Beispiele für die neue Art von Amateur_innen, die über eine professionelle Ausbildung und zum Teil auch einschlägige Praxis verfügen und den Profis annähernd ebenbürtig sind. [26]

In einer Weise, auf die wohl Virnos Analyse, dass der General Intellect, wenn er nur im Produktionsbereich realisiert werde, nicht aber in politischer Selbstorganisation, zur unkontrollierten Ausbreitung von Hierarchien führe[27], zutrifft, werden von Howe die Probleme auf bestimmten Arbeitsmärkten zwar als allgemeine gesehen, Lösungsstrategien aber nur auf je individueller Ebene angesetzt: Dem arbeitslosen Künstler und der vom Laboralltag frustrierten Chemikerin stehen in Howes Szenario keinerlei solidarische/kollektive Lösungen zur Auswahl, sondern nur die je isolierte individuelle.

Im Crowdsourcing sind viele Elemente, die im Begriff der ‚immateriellen Arbeit’ gefasst werden, in intensivierter Form enthalten: Einbringen der gesamten Person, Ausbeutung von Selbstorganisationselementen, völlige Loslösung von Arbeit aus zeitlichen und räumlichen Beschränkungen. Gleichzeitig entspricht das Ausbeutungsmodell nicht dem oft noch von der Überwindung des Fabrikssystems geprägten Bild, sondern stellt eher eine Verallgemeinerung der aus dem Bereich von Kunst und Creative Industries bekannten (Selbst-)Ausbeutungsmechanismen dar: Selbstverwirklichung, Spaß an der Arbeit, interessante Aufgabenstellungen im Austausch gegen ansonsten völlig unzumutbare Arbeitsbedingungen.


Neoliberale Orakel

Grundsätzlich wurde im Zusammenhang mit Konzepten ‚kollektiver Intelligenz’ eine Palette an Methoden zur Aggregation von Informationen und Prognosen entwickelt, von der in manchen Zusammenhängen sehr effizienten Anwendung des einfachen arithmetischen Mittels bis zu komplexen nonlinearen Funktionen.

Prognosemärkte verwenden dazu grundsätzlich Nachahmungen von Aktienmärkten, wie hier am Beispiel von Vorhersagen des Ergebnisses von Präsidentschaftswahlen kurz erklärt: “Consider a contract that pays $1 if Candidate X wins the presidential election [...]. If the market price of an X contract is currently 53 cents, an interpretation is that the market ‘believes’ X has a 53% chance of winning. Prediction markets reflect a fundamental principle underlying the value of market-based pricing: Because information is often widely dispersed among economic actors, it is highly desirable to find a mechanism to collect and aggregate that information. Free markets usually manage this process well because almost anyone can participate, and the potential for profit (and loss) creates strong incentives to search for better information.“[28]

Die Form wird grundsätzlich auf zwei Ebenen angewandt: In öffentlich zugänglichen Plattformen im Internet, wo etwa wie im gerade zitierten Beispiel Wahlergebnisse prognostiziert werden, und auf innerbetrieblicher Ebene, wo sie in verschiedenen Bereichen verwendet werden, primär im Zusammenhang mit neuen Produkten, von der Auswahl der Produktideen mit den besten Marktchancen über die Einschätzung des Zeitpunktes für die Markteinführung bis zur Schätzung der Verkaufszahlen.

Die Prognosemärkte sind zu einem der prominentesten Beispiele für ‚kollektive Intelligenz’ geworden, weil sie auf innerbetrieblicher Ebene seit den 1990er Jahren von verschiedenen Großkonzernen öffentlichkeitswirksam eingesetzt bzw. getestet werden, und nicht zuletzt wohl auch, weil es einige sehr leicht zu vermittelnde Beispiele gibt, etwa die erfolgreichen Wahlprognosen der Iowa Electronic Markets (IEM)[29].

Auf innerbetrieblicher Ebene eingesetzt, zeigen sich tendenziell Effekte von ‚immaterieller Arbeit’, etwa die Überschreitung der individuellen durch die relative Anonymität auf kollektiver Ebene beim Zugänglichmachen von ansonsten ‚verborgener’ Information: Vom Pessimismus der Abteilungsleiterin, den nächsten Produktionstermin halten zu können, bis zum privaten Wissen über Kündigungspläne eines Kollegen. Die Geheimnisse müssen nicht ‚verraten’ werden, fließen aber in die Prognose ein. Dem entgegen stehen aber strukturell enthaltene ‚Gefährdungen’ betrieblicher Hierarchien, von der Notwendigkeit, entscheidungsrelevante Daten freizugeben bis zum Problem für hochbezahlte Manager_innen, mit Methoden zu arbeiten, die letztlich auf der Annahme basieren, dass Kollektive bessere Entscheidungen treffen.

Während in der praktischen Anwendung die anfängliche Euphorie offensichtlich einer eher nüchternen Aufnahme der Prognosemärkte ins Standardrepertoire fortgeschritteneren Managements gewichen ist, bleibt in der breiten Diskussion die ideologische Wirkung einer Methode, die nach wie vor als Avantgarde unter den Managementmethoden angepriesen wird. Darstellbar als eine innovative Methode, die der Funktionsweise von Finanzmärkten entspricht und die herkömm­lichen sozialen, ökonomischen und politischen Methoden wie Gruppendiskussio­nen[30], Meetings und Meinungsforschung tendenziell überlegen ist, repräsentieren Prognosemärkte neoliberale ökonomische Ideologie in Reinform. Nicht zufällig beruft sich die oft sehr rudimentäre Darstellung der konzeptionellen Grundlagen auf die Idealisierung der Marktmechanismen in Hayeks klassischen Ausformulierungen neoliberaler Ideologie. Speziell in Hinblick auf ‚kollektive Intelligenz’ bedeutet dies, dass die Vergemeinschaftung von Information und geistiger Arbeit restlos mit dem Markt in Eins gesetzt wird.


Diversität statt Kollektivität

Kurz zu den beiden Komponenten ‚Intelligenz’ und ‚kollektiv’: Der Intelligenz-Begriff wird in einigen Ansätzen zur ‚kollektiven Intelligenz’ – etwa den Neuro-/Kognitionswissenschaften[31] oder Forschungen zu Künstlicher Intelligenz nahestehenden – sehr spezifisch aufgelöst. In den im vorliegenden Text untersuchten Diskursen, die management- und organisationstheoretischen Ansätzen nahe stehen, wird der Begriff oft vor dem Hintergrund eines sehr allgemeinen Grundverständnisses[32] eher als Metapher verwendet, etwa für die Wissensressourcen einer Organisation, oder, wie sich schon bei Douglas Engelbart angedeutet hat, im Sinne von „Problemlösung“, „Bewältigung einer Aufgabe“.

Im Kontext der dargestellten weborientierten Konzepte scheint diesbezüglich nicht zuletzt die Unterscheidung zwischen ‚User Generated Content’ und ‚kollektiver Intelligenz’ aufschlussreich. In einigen Projekten erscheinen diese als zwei parallele Ebenen (Wikipedia als Enzyklopädie und gleichzeitig als ‚kollektive Intelligenz’ im Sinne permanenter Wissensaggregation, wie es sich im nie abgeschlossenen Prozess des Prüfens, Überarbeitens, Editierens der Artikel niederschlägt), in vielen Bereichen treten diese Aspekte aber auch stärker auseinander, und so erscheinen die Produktion von ‚User Generated Content’, etwa das Designen von T-Shirts auf threadless.com (das auch keinen Prozess grundsätzlich unabschließbarer Überarbeitung darstellt, sondern wo es im Gegenteil immer wieder zu endgültigen Entscheidungen kommen muss, um das jeweilige T-Shirt dann physisch produzieren zu können), als stark unterschieden etwa von einem Prognosemarkt, in dem der Prozess der Wissensaggregation stark überwiegt.

Man kann in diesem Sinn von einer breiteren Definition von ‚kollektiver Intelligenz’ sprechen, die den Gesichtspunkt der Kooperation in den Vordergrund stellt und beide genannten Aspekte umfasst, und die ‚kollektive Intelligenz’ etwa mit ‚peer production’ gleichsetzt[33]. Dem gegenüber stellt eine engere Definition von ‚kollektiver Intelligenz’ den Aspekt der Wissensaggregation ins Zentrum und grenzt den Begriff von ‚User Generated Content’ ab. So beschäftigt sich etwa James Surowieckis im Sachbuchbestseller The Wisdom of Crowds, dem bislang vielleicht einflussreichsten Buch zum Thema ‚kollektive Intelligenz’, praktisch nicht mit ‚User Generated Content’.

‚Kollektiv’: Hatte es Pierre Lévy Anfang der 1990er noch für notwendig erachtet, ‚kollektive Intelligenz’ von jeglicher Fetischisierung von Gemeinschaften abzugrenzen, erscheint ‚kollektiv’ Anfang des 21. Jahrhunderts längst frei von politischen Konnotationen. Es traten auch nur ganz vereinzelt Autor_innen auf, die angesichts derartiger Konzepte dem Missverständnis verfielen, die Alarmglocken läuten und zur Verteidigung des Individuums schreiten zu müssen.

‚Kollektiv’ wird letztlich meist als bewusst unspezifischer Überbegriff verwendet, im Gegensatz etwa zum Begriff der ‚Gruppe’, der oft mit bestimmten Eigenschaften, etwa dass die Mitglieder einander kennen, assoziiert wird. Im Zusammenhang mit ‚kollektiver Intelligenz’ ist der Begriff meist auf vier empirische Formen von kollektiven Zusammenhängen bezogen: Online Community, Kleingruppe (Arbeitsteam)[34], Organisation/Unternehmen und die gleichsam ‚anonyme Menge’ von User_innen im Internet[35] (deren Navigationsdaten vor allem im kommerziellen Bereich intensiv ausgewertet werden, und deren ‚große Zahl’ für bestimmte Aspekte ‚kollektiver Intelligenz’ ebenso wichtig sind, wie das häufige Auftreten der Potenzgesetzverteilung die kollektive Ebene stärker ins Zentrum der Betrachtung rückt[36]).

‚Online Community’ ist hauptsächlich dadurch definiert, dass die Orientierung an einem gemeinsamen Interesse und/oder einer langfristigen Zielsetzung im Zentrum steht. Dadurch unterscheidet sie sich sowohl vom traditionellen Begriff der Community, die durch geographische Nähe definiert ist, als auch von Online Sozialen Netzwerken, deren Grundelement nicht die Beziehung eines Mitglieds zum gemeinsamen inhaltlichen Anliegen bildet, sondern die Beziehung zwischen zwei Individuen[37].

Die beiden Gesichtspunkte – die Art der Aufgabe/Problemstellung und die Form von Kollektivität – hängen eng zusammen und werden entsprechend in ihrer Beziehung zueinander analysiert. So etwa Jeff Howe:

“The mechanics of crowdsourcing content differ greatly from those that rely on collective intelligence. In a prediction market or a crowdcasting network, the task is to aggregate widely dispersed information and put it to good use. This presents its own set of challenges. The crowd must be diverse, and nominally versed in the relevant field, be it the sciences or the stock market. But the crowd needn’t, generally speaking, interact with one another. In fact, [...] interaction leads to deliberation, which in turn reduces the diversity of thought through which collective intelligence thrives.
Crowdsourcing creative work, by contrast, usually involves cultivating a robust community composed of people with a deep and ongoing commitment to their craft and, most important, to one another.”[38]

Auch wenn hier einiges an Differenzierungen verloren geht, erscheint die grundsätzliche Unterscheidung stimmig und es zeigen sich zwei Grundmodelle der Instrumentalisierung von Kollektivität: Bei ‚User Generated Content’, also im weniger zentralen Bereich der weiteren Definition von ‚kollektiver Intelligenz’, in Form der Online Community, an der gerade die formierenden Elemente, die die Stabilität des Kollektivs und gleichsam dessen Entität betonen, interessieren: das langfristige Engagement, die Identifizierung der Mitglieder mit der gemeinsamen Zielsetzung, die sich verstärkenden Beziehungen zwischen den Mitgliedern. Gleichzeitig wird die Online Community, die über technische Tools sehr detailliert gestaltbar ist – jede Filterungsmöglichkeit diversifiziert die individuellen Wahrnehmungen, jede zusätzliche Kommunikationsebene erhöht die bewältigbare Komplexität etc. –, aber von außen gesehen, als Objekt von Management bzw. spezieller, von „[d]esigners and architects of communities“[39], und die formierenden Elemente verstärken nicht die Selbstbestimmung sondern die Instrumentalisierung, bzw. heben tendenziell die Unterscheidbarkeit dieser Modi auf.

Im Zentrum der engeren Definition von ‚kollektiver Intelligenz’ mit Fokus auf Prozessen von Wissens- und Informationsaggregation, steht ein als gegenteilig deklariertes Modell: die Absolutsetzung nur eines der Aspekte von Kollektivität, der Diversität. Deren unbedingte Notwendigkeit als Voraussetzung wird keineswegs nur von Howe[40] gesehen, sondern kann als allgemein anerkannt gelten. James Surowiecki nennt etwa in The Wisdom of Crowds drei Voraussetzungen, die ein Kollektiv brauche, um intelligent sein zu können, und die zu gewährleisten/erhalten viel grundlegender sei, als eine bestimmte Methode entwickeln zu wollen: Diversität, Unabhängigkeit und Dezentralisierung.[41]

Eine wissenschaftliche Grundlage dafür findet sich in den Arbeiten von Scott E. Page, der diese Aspekte von ‚kollektiver Intelligenz’ mit Mitteln der Komplexitätsforschung herausarbeitet. Page und Kolleg_innen hatten beim Experi­men­­tieren mit agentenbasierten Systemen (Softwareprogramme, die je unterschiedliche Heuris­tiken/Problemlösungsstrategien verfolgen) schon in den 1990er Jahren Zusammenhän­ge entdeckt, die in der Folge zum sogenannten „Diversity trumps ability“-Theorem ausgearbeitet wurden[42]. Als Beispiel dient etwa eine Grundgesamtheit von 1000 Agents, aus der eine Gruppe der 20 besten indivi­duellen Problemlöser und eine ebenso große Vergleichsgruppe aus zufällig aus der Grundgesamt­heit ausgewählten Agents erstellt werden. Die vielfache Wiederholung derartiger Experimente hat bestätigt, dass die Vergleichsgruppe als Gruppe regelmäßig besser abschneidet als die Gruppe der 20 individu­ell Besten. Page hat drei Jahre nach Surowieckis Wisdom of Crowds ein Buch vorgelegt, in dem er die auf Diversität basierenden Mechanismen, die zu derartigen Ergebnissen führen, detailliert nachweist und erläutert,[43] und mittlerweile auch die Zusammenhänge zwischen Diversität und Komplexität umfassender dargestellt[44].

In diesem auf das Funktionelle reduzierten Konzept von Diversität kommt die Tendenz auf den Punkt, Aspekte von Kollektivität zu ‚extrahieren’, die für die kapitalistische Produktion instrumentalisierbar sind, ohne die anderen Ebenen – Solidarität, Entwicklung gemeinsamer Zielsetzungen etc. – zu aktivieren und damit kollektive Individuation zu ermöglichen.

Ist der Begriff ‚kollektive Intelligenz’ also, um auf die Ausgangsfrage zurückzukommen, in linken Kontexten nicht wirklich brauchbar? Doch. Einerseits ist der Begriff komplexer als in diesem einen Diskursbereich, den ich hier näher betrachtet habe. Und es ist etwa von Begriffen wie „Global Brain“ oder „Noopolitics“ zu erwarten, dass sie – bei aller sonstigen Problematik, wie sie sich etwa schon in der geradlinigen Behauptung des Globalen andeutet – Kollektivität ganz anders konzeptionalisieren und der Begriff der ‚kollektiven Intelligenz’ aus der Kombination der verschiedenen Zugänge durchaus noch an Komplexität und inhaltlicher Reichweite gewinnt.

Was den hier untersuchten Diskursbereich betrifft, geht es primär um die Möglichkeiten, den Begriff ‚kollektive Intelligenz’ zu nutzen, um den Netzkapitalismus zu kritisieren, sowohl was die Ausbeutungsmechanismen als auch was die Durchdringung der Gesellschaften mit fragmentierten Formen von Kollektivität betrifft. Es geht aber auch um die Frage, was über diese ‚Negation’ an Elementen aneigenbar ist und auch direkt an den kritisierten Phänomenen ansetzen kann.

Die detaillierte Ausarbeitung von Aspekten von ‚Diversität’ könnte dabei durchaus interessant sein. Dass in den untersuchten Modellen nur fragmentierte Formen von Kollektivität zum Vorschein kommen, die entsprechend auch bald in Widerspruch zueinander treten, ist zweifellos vor dem Hintergrund der Instrumentalisierungsabsicht zu sehen. Die linken Bewegungen erarbeiten sich hingegen über Konzepte wie Multitude/Commons und Prekariat in Theorie und Praxis komplexe Formen kollektiver Individuation und damit ganz andere Voraussetzungen für den Umgang mit Elementen von Kollektivität.

Vermeidet man den fatalen Fehler, die Modelle aus Komplexitätsforschung und Konzepten ‚kollektiver Intelligenz’ mit der inhaltlichen Auseinandersetzung mit Diversität zu vermengen, könnte sich hier für die organisatorische und taktische Ebene ein Pool an Mikrotools zeigen, um gerade auch auf dieser Ebene die Stärken von Diversität herauszuarbeiten.


Ich danke Lina Dokuzović, Therese Kaufmann und Gerald Raunig für Hinweise und Feedback.

Eine ausführlichere Version dieses Textes ist in Kürze in den „Resources“ von Creating Worlds zugänglich (http://eipcp.net/projects/creatingworlds/files/resources).

 



[1] Etwa in Alexei Penzin, “The Soviets of the Multitude: On Collectivity and Collective Work: An Interview with Paolo Virno”, in: Mediations 25.1 (Fall 2010), S. 81-92; http://www.mediationsjournal.org/articles/the-soviets-of-the-multitude (Alle angegebenen Links wurden zuletzt am 17.2.2012 aktualisiert.).

[2] Etwa, auch thematisch eingebettet, im kurzen Subkapitel zu “Swarm Intelligence” in: Michael Hardt, Antonio Negri, Multitude. Krieg und Demokratie im Empire, Ü: Thomas Atzert, Andreas Wirthensohn, Frankfurt am Main / New York: Campus 2004, S. 109-111

[3] Vgl. etwa Jacques Rancière, “Die politische Unreinheit” und „Kommunisten ohne Kommunismus?“, in: ders., Moments politiques. Interventionen 1977-2009, Ü: Ellen Antheil, Richard Steurer, Zürich: diaphanes 2011, S. 151-161, 207-220.

[4] “Il progetto UniNomade”, http://uninomade.org/progetto/.

[5] Differenzierter bei Rancière, a.a.O.

[6] Mit anderen, etwa mit den Begriffen „Global Brain“ und „noopolitics“ oder auch neurowissenschaftlichen Modellen verbundenen Ansätzen, werde ich mich in folgenden Texten beschäftigen.

[7] Vgl. etwa das Murray-Turoff-Zitat von 1976 in: Howard Rheingold, The Virtual Community. Homesteading the Electronic Frontier, Addison-Wesley 1993, S. 113/114

[9] Vgl. Jens Schröter, Das Netz und die Virtuelle Realität. Zur Selbstprogrammierung der Gesellschaft durch die universelle Maschine, Bielefeld: transcript 2004, S. 69/70

[10] Vgl. Howard Rheingold, Tools for Thought. The History and Future of Mind-Expanding Technology, Cambridge, MA; London: MIT Press 2000 [Originalausgabe: New York: Simon & Schuster 1985], S. 193

[11] Vgl. John Markoff, What the Dormouse Said. How the Sixites Counterculture Shaped the Personal Computer Industry, London: Penguin 2006, S. 206ff.

[12] Schließlich wurde vor allem durch den Vietnamkrieg immer wieder deutlich, dass sich das ARC im Kontext militärischer Forschung befand. Die Großcomputer wurden ua. auch zur Koordination von Bombardements in Vietnam eingesetzt, in einem Nachbarlabor des ARC wurden lasergesteuerte Bomben entwickelt etc. (Vgl. Schröter, Das Netz und die virtuelle Realität, a.a.O., S. 77; Markoff, What the Dormouse Said, a.a.O., S. 211)

[13] Vgl. dazu auch Vannevar Bushs 1945 erschienenen berühmten Text “Wie wir denken werden” (Ü: Susanna Noack, in: Karin Bruns, Ramón Reichert (Hg.), Reader Neue Medien. Texte zur digitalen Kultur und Kommunikation, Bielefeld: transcript 2007, S. 106-125), dem Engelbart auch autobiografisch besondere Bedeutung zumisst.

[14] Douglas C. Engelbart, “Special Considerations of the Individual as a User, Generator, and Retriever of Information”, in: American Documentation, Jg. 12, No. 2, April 1961, S. 121-125; http://sloan.stanford.edu/mousesite/Archive/Post68/Special1961.html.

[15] Douglas C. Engelbart, Richard W. Watson, and James C. Norton, “The Augmented Knowledge Workshop”, in: AFIPS Conference Proceedings, Vol. 42, National Computer Conference, June 4-8, 1973, S. 9-21, hier zitiert nach: http://www.dougengelbart.org/pubs/augment-14724.html, Absatz 1b.

[16] Pierre Lévy, Die kollektive Intelligenz. Für eine Anthropologie des Cyberspace, Ü: Ingrid Fischer-Schreiber, Mannheim: Bollmann 1997 (frz. Original: 1994), S. 29, S. 32.

[17] Tim O’Reilly, “Was ist Web 2.0? Entwurfsmuster und Geschäftsmodelle für die nächste Software Generation”, Ü: Patrick Holz; http://www.oreilly.de/artikel/web20_trans.html.

[18] Vgl. zu PageRank in einem größeren netzwerk- und wissenstheoretischen Kontext: Martin Donner, “Rekursion und Wissen. Zur Emergenz technosozialer Netze”, in: Ana Ofak, Philipp von Hilgers (Hg.), Rekursionen. Von Faltungen des Wissens, München: Fink 2010, S. 77 – 113, zur ‘Politik des Suchens’: Konrad Becker, Felix Stalder (Hg.), Deep Search. Politik des Suchens jenseits von Google, Innsbruck, Wien, Bozen: Studienverlag 2009.

[19] Vgl. Steven Johnson, Emergence. The Connected Lives of Ants, Brains, Cities and Software, The Penguin Press 2001

[20] Thomas W. Malone, Robert Laubacher, Chrysanthos Dellarocas, "Harnessing Crowds: Mapping the Genome of Collective Intelligence", MIT Center for Collective Intelligence, Working Paper No. 2009-001, Februar 2009; http://cci.mit.edu/publications/CCIwp2009-01.pdf.

[21] Jeff Howe: Crowdsourcing. Why the Power of the Crowd is Driving the Future of Business, New York: Three Rivers Press 22009, S. XI. Der Ausdruck ‘home sweatshop’ erscheint einerseits – gerade in einem derart von Kritiklosigkeit geprägten Diskurs – erfreulich deutlich, gleichzeitig wohnt dem letztlich inadäquaten Vergleich die problematische Tendenz inne, die Situation in den ‘wirklichen’ Sweatshops zu verharmlosen.

[22] Howe nennt dazu auch das Produktionsmodell aus der Open Source Bewegung, die Entwicklung der technischen Tools, va. des Internet, sowie als viertes Element, das die anderen drei Elemente gleichsam zu einer unaufhaltbaren Entwicklung vereint habe, die Online Communities. (Vgl. Howe, Crowdsourcing, a.a.O., S. 99)

[23] Vgl. Carlo Vercellone: „Die Krise des Wertgesetzes. Der Profit wird zur Rente. Bemerkungen zur systemischen Krise des kognitiven Kapitalismus“, in: Grundrisse 35 (2010), S. 44-61, hier S. 55; http://www.grundrisse.net/PDF/grundrisse_35.pdf.

[24] So ein Zwischentitel, Howe, Crowdsourcing, a.a.O., S. 37.

[25] http://www.innocentive.com/, eines der in diesem Bereich vielzitierten Beispiele. Firmen posten auf der Plattform Aufgabenstellungen, technische Fragen, die meist von den eigenen Forschungsabteilungen nicht gelöst werden konnten, und treffen auf eine globale Community von Forscher_innen, Techniker_innen, Autodidakten etc., die (nicht kollektiv, sondern in je individuellen Projekten) nach weiteren Lösungsmöglichkeiten suchen.

[26] Und zwei Bereiche – zwei Mechanismen, wie professionell Ausgebildete/Arbeitende in den Status von Amateur_innen geraten –, die im Buch ansonsten zumindest kurz angesprochen werden, erwähnt Howe in diesem Zusammenhang nicht: Neben der recht beschönigend dargestellten strukturellen Arbeitslosigkeit in Sektoren wie dem Kunstbereich die ansonsten im „Status Update“ von 2009 kurz angesprochene allgemeine Erhöhung der Erwerbslosigkeit etwa durch die Finanzkrise, und dazu ein Bereich, der wohl vor allem deshalb nur einmal kurz erwähnt wird, weil er allzu sehr die Nähe zum ‚klassischen’ Outsourcing heraufbeschwören könnte: Die hier gleichsam als Amateur_innen auftretenden Profis aus dem globalen Süden, denen primär durch die internationale Arbeitsteilung die Chance auf reguläre Beschäftigung vorenthalten wird.

[27] Vgl. Paolo Virno, Grammatik der Multitude. Mit einem Anhang: Die Engel und der General Intellect, Ü: Klaus Neundlinger, Wien: Turia + Kant 2005, S. 52/53

[28] Kenneth J. Arrow et al, “The Promise of Prediction Markets”, in: Science, Vol. 320 (16. Mai 2008), S. 877-878, http://bpp.wharton.upenn.edu/jwolfers/Papers/PromiseofPredictionMarkets.pdf.

[29] http://tippie.uiowa.edu/iem/. Die IEM wurden schon Ende der 1980er Jahre von der University of Iowa für Forschungs- und Unterrichtszwecke eingerichtet, u.a. für die Vorhersage verschiedenster Wahlergebnisse verwendet und haben angeblich bislang in 75% der Fälle bessere Vorhersagen der Ergebnisse von US-Präsidentschaftswahlen geliefert als die großen Meinungsforschungsinstitute.

[30] Vgl. Cass R. Sunstein, Infotopia. Wie viele Köpfe Wissen produzieren, Ü: Robin Celikates, Eva Engels, Frankfurt am Main: Suhrkamp 2009 (englischsprachiges Original: 2006)

[31] Vgl. Deborah Hauptmann, Warren Neidich (eds.), Cognitive Architecture. From Biopolitics to Noopolitics. Architecture & Mind in the Age of Communication and Information, Rotterdam: 010 Publishers 2010, oder auch zum Konzept der “Distributed Cognition”: Edwin Hutchins, „Distributed Cognition“, 2002, http://files.meetup.com/410989/DistributedCognition.pdf sowie ders., Cognition in the Wild, Cambridge, Massachusettes, London: MIT Press 1995.

[33] Vgl. Malone etal, Harnessing Crowds, a.a.O., S. 2.

[34] “This is important for two reasons. First, small groups are ubiquitous in American life, and their decisions are consequential. Juries decide whether or not people will go to prison. Boards of directors shape, at least in theory, corporate strategy. And more and more of our work lives are spent on teams or, at the very least, in meetings. Whether small groups can do a good job of solving complex problems is hardly an academic question. Second, small groups are different in important ways from groups such as markets or betting pools or television audiences. Those groups are as much statistical realities as experiential ones. Bettors do get feedback from each other in the form of the point spread, and investors get feedback from each other in the stock market, but the nature in the relationship between people in a small group is qualitatively different.” (James Surowiecki, The Wisdom of Crowds. Why the Many Are Smarter Than the Few, London: Abacus 2006 [Erstpublikation: 2004], S. 217)

[35] Bzw. Marktteilnehmer_innen etc.

[36] Vgl. etwa Clay Shirky, Here Comes Everybody, Penguin Books 22009 (12008), S. 128.

[37] Vgl. etwa: Tharon W. Howard, Design to Thrive. Creating Social Networks and Online Communities That Last, Morgan Kaufmann Publishers 2010, S. 13ff.

[38] Howe, Crowdsourcing, a.a.O., S. 180

[39] Howard, Design to Thrive, a.a.O., S. 23

[40] Der auf das Thema auch ausführlicher eingeht, vgl. Howe, Crowdsourcing, a.a.O., S. 131-145.

[41] Vgl. Surowiecki, The Wisdom of Crowds, a.a.O., S. 27.

[42] Scott E. Page, The Difference. How the Power of Diversity Creates Better Groups, Firms, Schools, and Societies, Princeton, Oxford: Princeton University Press 2007, S. 131-235.

[43] Page, The Difference, a.a.O.

[44] Scott E. Page, Diversity and Complexity, Princeton: Princeton University Press 2011