Shared publicly  - 
 
Da es gern viele unterschiedliche Interpretationen von Schirrmacher-Texten gibt, hier meine Lesart, was eigentlich der Kern des Textes ist. Habe mich mal mit Bleistift und Textmarker dran gemacht, old school sozusagen:
1. Wissen
"Google übernimmt nicht nur das Speichern faktischer Wissensinhalte; Google – und das hat es bei noch keiner Externalisierung gegeben – übernimmt auch die Berechnung, Organisation und Deutung der Assoziationen, die wir beim Gebrauch dieses Wissens haben." Das nennt er soziales und assoziatives Erinnern.
2. Ersatz
Das ist keine Auslagerung von Erinnerung mehr, sondern deren Ersatz.
3. Rückkoppelung auf Identität
Es geht ferner "Welche Identitäten entstehen, wenn auch unser soziales und assoziatives Erinnern ausgelagert ist?". Auf diesem Feld, so vermute ich, ist das eigentliche Problem anzusiedeln.
Ich denke, das ist das, was zu diskutieren wäre.

Sieht das jemand anders, der den Text gelesen hat?

(Zwei Nebenstränge:
1. Die Internet-Meinungsbildung, die sich von Fakten löst ("Talmud") - dazu kann ich nach zwei Jahren detaillierter Medienwahrnehmung nur sagen: Das ist ein Thema des gesamten Mediensystem, online wie offline (mir gruselt es inzwischen, wenn ich morgens den Broswer starte)
2. Einfluss auf amerikanische und private Organisationen.
3. Für mich hat das drittens eine Dimension wirtschaftlicher Unabhängigkeit, davon lese ich aber nichts.)
Translate
Was man nachschlagen kann braucht man nicht im Gedächtnis zu behalten Nach dieser alten Lehrerweisheit funktioniert... - hier klicken
42
34
Martin Möbius's profile photoMartin Lindner's profile photoAnne Narjes's profile photoBernhard Maier's profile photo
93 comments
 
Du hast recht, man muss das getrennt voneinander diskutieren. Der Fehler liegt in der etwas protzigen Überschrift. Zur europäischen Suchmaschine schreibt dann Schirrmacher gerade einen mickrigen Absatz. Die anderen Aspekte werde ich noch einmal genauer betrachten. Auch der Verweis auf die Studien. Da ist noch grübeln angesagt.
 
Danke, +Gunnar Sohn .
Ganz pointiert zu Ziffer drei:
Wer bin ich, wenn ich nicht mehr weiss, wo ich war, was ich tat, was ich suchte, mit wem ich Kontakt hatte?
Für mich geht es nicht um Google, sondern Google ist hier nur stellvertretend für Mechanismen, die unser Verhalten aufzeichnen und auf die wir uns zunehmend verlassen werden, bis wir uns selbst nicht mehr kennen.
 
Hm. Ich habe hier einige Bedenken, wie die Begriffe "Wissen" und "Gedächtnis" für etwas verwendet werden, dass etwas völlig anderes ist. Google speichert eben keine Inhalte, nur das Verhalten der Nutzer in Bezug auf Inhalte. "Der Informationswert liegt nicht mehr in der Information, sondern in ihrer Vernetzung" ist meiner Meinung nach Unsinn, worauf der Artikel am Ende rausläuft, ist Verhaltens- und Marktforschung in Bezug auf "Wissen" und die Vernetzung von Wissen, das ist ganz sicher auch sehr, sehr relevantes "Wissen", hat für mich aber mit einem "digitalen Gedächtnis" wenig zu tun.

Er hat mit dem Artikel ja grundsätzlich recht, aber ich weiß nicht, warum er dort Google überhaupt mit reinzieht - der Aufbau eines unabhängigen "digitalen Gedächtnisses" ist doch völlig unabhängig davon. Unabhängig heißt dann aber auch, dass jeder mit dran arbeiten können sollte und für mich muss es auch keine Suchmaschine, sondern eine Wissensdatenbank sein. Ach ja, Wikipedia.
 
Ich sehe das ähnlich wie +Sebastian Baumer , gewissermaßen eine essayistische Fehladdressierung, die deswegen nicht uninteressant wird. Mir ging durch den Kopf, als ich Schirrmacher und Glaser las, in welcher Beziehung der Vortrag von Eric Schmidt in der American Academy zu Berlin zu einer psychiatrischen Idee eines individuellen Gedächtnisses steht. Nehmen wir zum Beispiel eine Borderline-Person, die über die grauenvolle Gabe gebietet, über ein buchstäblich lückenloses Gedächtnis zu verfügen. Sie kann innerhalb von Nanosekunden jedes Erlebnis aus ihrem Leben aufrufen - ohne dass die aufgerufenen Erinnerungen jene Form der Eindeutigkeit besäßen, als die das digitale Gedächtnis vorgestellt wird. Noch schlimmer, die emotionale Bewertung jeder Erinnerung bleibt selbst bei vermeintlich schönen Ereignissen unvorhersagbar, weil der Augenblick und der Kontext des Erinnerns selbst dem erinnerten Ereignis eine neue Bedeutung verleihen können, die Erinnerung oder wenn wir so wollen, die Daten, sind trügerisch. Das einzige, was scheinbar nicht trügt, ist der volle Speicher. Frank Schirrmacher hat über seinem Essay Proust vergessen, keine gute Voraussetzung für einen Essay über das Gedächtnis und seine Tücken.
Auch erscheint es mir kurios, warum er da eine politisch-kontinentale Konkurrenz evoziert. Mir kommt es so vor, als sei das akademisch-kulturelle Gedächtnis europäischer Geschichte, Kultur und Politik in Amerika und in China sehr viel weiter gediehen als in seiner konservatorischen Hülle auf dem Kontinent selbst.
 
+Hans Hütt Wollte hier eigentlich nur versuchen, den Text zu verstehen, weil er evtl von der Überschrift und der europ. Suchmaschine völlig überstrahlt wird. Was Du schreibst, ist aber interessant: es gibt Realität (Faktum und Kontext), Wissen (als Substrat des Wesentlichen, bereits subjektiv gefiltert, iSv bedeutend/unbedeutend), die Erinnerung an beides (einschliesslich emotionaler/psychischer Verarbeitung) einschliesslich seiner Bedeutung? So ungefähr?
 
+Christoph Kappes voilà! Und noch was, dafür ist der Glaser Essay hilfreich - http://www.spiegel.de/netzwelt/web/0,1518,773019,00.html - was denn das Gedächtnis auf der einen Seite mit der Zukunft auf der anderen zu tun hat, denken wir an die Logik der Pfadabhängigkeiten oder an abrupte Diskontinuitäten, wenn etwas wirklich Neues auf den Plan tritt, das alte Schulen, altes Denken, altes Wissen richtig alt macht. Wenn man Schirrmacher aus einer technikgeschichtlichen Perspektive liest, wirkt er wie ein Wiedergänger Dagobert Ducks, der es sich nicht auf den Dukaten, sondern mit seinem Gedächtnis gemütlich macht. Tatsächlich aber ist das ein ganz ungemütliches Thema :-D
 
es ist nicht der Speicher, sondern die Interaktion - und die verläuft gewiss nicht mehr in kontinentalen oder gar nationalen Grenzen
 
Ich wiederhole mich mal (vorher bei Kuri), da mich der Artikel heute morgen schon genervt hat.


Find ich Klasse, dass der CCC kontrolliert. Dann sieht alles aus wie bei Fefe und er kommt vor lauter Verschwörungstheorien nicht mehr dazu Diktator in Alternativlos zu spielen. Wäre schade. Dass Herr Schirmacher hin und wieder lesenwerte Artikel schreibt=schön. Dass er Themen besetzen will= legitim. Aber ich habe den Eindruck, dass er noch nicht ganz verstanden hat, wie die digitale Welt funktioniert.

Seine Erkenntnis, dass Zusammenhänge zwischen Fakten Werte sind, sind keine BREAKING NEWS. Das hatten wir schon einmal und nennt sich relationale Datenbank. Und der Witz ist, dass diese Relationen nicht statisch sind, sondern immer wieder neu aufgebaut werden müssen. Sie sind also ein sehr fliessender Wert, der keine Beständigkeit hat und morgen dem Vergessen (+Peter Glaser) anheim fallen sollten. Dies dann mit dem Begriff Kultur zu verbinden geht zu weit. Da bleibe ich bei meinem alten Kulturbegriff, dem das Vergessen von Nichtigkeiten inhärent ist.

Und dann wieder der Kulturkampf Amerikanisch-Europäisch, Chinesisch-Deutsch, ... Es ist langweilig, da diese tradierten kulturellen Unterschiede bestehen. Ich muss die Fakten neu verknüpfen, mit meinem Kopf. Aber dies ist jetzt zu stark verkürzt ...

Und wenn Google heute seine Platten putzt, geht die Welt auch nicht unter und die amerikanische und die deutsche und die xxx Kultur wird deswegen nicht untergehen.

Ein Punkt ist die marktbeherrschende Position von Google. Aber auch hier: Seit wann ist es Staaten gelungen sich gegen multinational operierende Konzerne durchzusetzen? Ein Staat hat, auch wenn er Stamokap spielen würde, keine Chance. (siehe Finanzwelt)
 
Sie schreiben: "Es geht ferner "Welche Identitäten entstehen, wenn auch unser soziales und assoziatives Erinnern ausgelagert ist?". Auf diesem Feld, so vermute ich, ist das eigentliche Problem anzusiedeln.Ich denke, das ist das, was zu diskutieren wäre."

Ja, aber bei diesem richtigen Gedanken fehlt die andere richtig wichtige Hälfte. Es geht ja nicht darum, dass wir unsere Steuerklärung oder unsere Akten, Lesefrüchte oder Alltagserlebnisse auslagern. Das ist nicht neu. Es gab ja schliesslich auch mal Tagebücher.

Doch bei all diesen klassischen Auslagerungen - mit denen wir Google verwechseln - ist das, was ausgelagert wurde, mindestens einmal gewusst worden - also bewusst gewesen. Unser assoziatives Erinnern aber ist uns selbst ein Rätsel, jedenfalls in den allermeisten Fällen. Nicht aber mehr (zumindest in Ansätzen) für Google.

Wäre es nicht so lyrisch, könnte man sagen Google ist auf dem Weg zum Herren auch des Unterbewussten, der Traumwelt zu werden.

Hier ist Steve Pirolli: "The notion that ideas associate with one another in particular ways goes back to Aristotle, but it is only in that last 35 years or so that we've been able to actually develop a formal, mathematical theory of how it actually works. Spreading activation is the computational technique that allows you to say how cues in the world evoke ideas in the mind, and how each idea activates associated ideas. In the context of the user interfaces, we're interested in how cues on something like a web page evoke ideas in the mind, and then there's a little bit more theory involved that specifies how the user makes judgments based on the relation of those evoked ideas to their information goals. The beauty is that we can build automated engineering models that have huge models of human associative memory embedded inside of them that make predictions about human judgments about cues on a user interface."
http://www.websiteoptimization.com/speed/tweak/information-foraging/interview.html

Ich assoziiere diese Behauptung halt nur mit der Prophezeiung von Erich Schmidt: 600 Jahre Speicher in einem einzigen Minigerät für unter 100 Dollar. Warum erwähnt er das? Weil damit die Ressourcen von Google unendlich werden, nicht die Informationen sondern die Rückkoppelung der Informationen ins Echtzeitverhalten und die Musterbildung werden monströs.

Ich würde gerne teilhaben an diesen Erkenntnissen. Das habe ich Schmidt in Berlin auch gefragt. Frage: Google weiss wahrscheinlich mehr über die menschliche Gesellschaft als alle Soziologen, Psychologen, Politiker etc. zusammen. Meine Frage: stimmt das und würden Sie diese Information mit uns teilen? Antwort: Es stimmt und wir werden diese Informationen nicht mit Ihnen teilen.
 
+Frank Schirrmacher "Frage: Google weiss wahrscheinlich mehr über die menschliche Gesellschaft als alle Soziologen, Psychologen, Politiker etc. zusammen. Meine Frage: stimmt das und würden Sie diese Information mit uns teilen? Antwort: Es stimmt und wir werden diese Informationen nicht mit Ihnen teilen." Diese Antwort steht im Gegensatz zu den Ankündigungen von Google, daß die Firma für Transparenz, Zugangsfreiheit und dem freiem Zugang zum Wissen steht. Habe ich die Antwort falsch verstanden oder ist Ihre Frage in einem anderen Kontext gestellt worden?
 
Für mich gibt es in diesem Artikel eigentlich zwei klassische Schirrmacher'sche Pointen. 1. Eine relativ runzelige alteuropäische Idee von Identität, die sehr empfindlich auf Veränderungen reagiert, weil ihr quasi ständig die Entfremdung von einer Art schließlich umweltunabhängig gedachten Ideal-Ich droht. Und 2. ist da diese relativ einfache Vorstellung von "Wahrheiten" und "richtigen Informationen", die besonders in der "Talmud-Passage" deutlich wird. Diese lässt gar einen Hauch von Wehmut aufkommen, dass die Menschen früher weniger hinterfragt haben, was aus den Medien kam. Dann stellt Herr Schirrmacher noch fest: "Das Netz, das wird immer deutlicher, folgt den Regeln des talmudischen Kommentars, nicht denen des wissenschaftlichen." Für meine Begriffe sieht man hier deutlich den enttäuschten Redakteur, der es als Zumutung erfährt, dass Aussagen in den Massenmedien und wissenschaftliche Aussagen nicht dasselbe Renome haben. Ich vermute Herr Schirrmacher würde sich gern (mit seiner durchaus beachtlichen Zeitung!) auf einer Seite mit der Wissenschaft sehen und sich von den Schmuddelkindern im Netz abgrenzen.Was er dabei allerdings verdrängt ist, dass auch in der Wissenschaft schon immer sehr viele Dinge (auch Wahrheiten) als mehrdeutig, Auslegungssache, bzw. als eine Methodenfrage behandelt wurden/werden. Ausserdem haben Medien noch nie wahre Aussagen erzeugt, ihre Methode ist ja auch die der Vermittlung von Aussagen und nicht die methodische Konstruktion von wissenschaftlichen Aussagen. Als große Medien noch quasi Inquisitionscharakter hatten, mag das den Redakteuren irgendwann nicht mehr aufgefallen sein, weil sie so fest an ihre selbstverbreiteten Reduktionen/ Auslegungen glaubten. Und man muss sagen: Widerspruch war unter solchen Beingungen auch einfach unwahrscheinlicher.

Auf jeden Fall ist es so, diese beiden wissenssoziologsch sozusagen naiven (freundlicher könnte man sagen: klassisch humanistischen) Ausgangspunkte verderben mir leider auch die weiteren journalistische Betrachtungen im Text, wenn Herr Schirrmacher z.B. versucht die extreme Bedeutung von Algorithmen anzudeuten. Ein Thema von nicht zu überschätzender Bedeutung. Es bekommt aber alles diesen populistischen kulturpessimistischen Grundton. Was besonders schade ist, weil ein solcher Grundton tendenziell die Aufmerksamkeit auf die Frage "Gut oder schlecht?" lenkt und nicht auf Frage "Wie machen wir was gutes draus?". Darin sehe ich eben ein - wenn man so will - philosophisches Problem.

Zum Schluß will ich nochmal darauf hinweisen, dass ich die journalistische Arbeit von Herrn Dr. Schirrmacher respektiere; nicht zuletzt z.B. wegen solcher Publikationen ( https://plus.google.com/114967860791427513387/posts/TCwio135cHJ )
 
"Doch bei all diesen klassischen Auslagerungen - mit denen wir Google verwechseln" - Niemand verwechselt Google mit einer Wissensdatenbank.

"Unser assoziatives Erinnern aber ist uns selbst ein Rätsel, jedenfalls in den allermeisten Fällen. Nicht aber mehr (zumindest in Ansätzen) für Google. Wäre es nicht so lyrisch, könnte man sagen Google ist auf dem Weg zum Herren auch des Unterbewussten, der Traumwelt zu werden." - Das ist ein richtiger und ein sehr verfolgenswerter Gedanke. Das ist aber etwas völlig neues, das mit einem "Gedächtnis" in dem Sinne, wie der Begriff besetzt ist, ziemlich wenig zu tun hat und aus der extrem wachsenden Sammel- und Verknüpfbarkeit von Daten entsteht - nicht nur online, sondern auch offline ist eine solche Datenbank, die Verhalten immer akribischer sammelt und auswertet, d.h. das Unterbewusste aufzeichbar macht, denkbar.

Mit "digitialem Gedächtnis", "digitalem Wissen" und mit der Suchmaschine Google ist das in dem Artikel aber eher assoziativ verknüpft, damit hat es nämlich im Grunde gar nicht viel zu tun.
 
Hajo Dezeslki: Nein, haben Sie nicht.Schmidt hat das so öffentlich gesagt, aber gemeint war das gleichsam pychosoziale Wissen von Google. Googles Ankündigung bezieht sich auf das faktische Wissen. Es bezieht sich nicht auf die Rückschlüsse die Google aus der Echtzeitkommunikation zieht. Das würde mich sehr interessieren: welche Rückschlüsse ziehen sie beispielsweise aus Wortwahl, Syntax, Uhrzeit, um nur die banalsten Beispiele zu nennen, wenn sie genügend Vergleichsparameter haben? Wir wissen nur, dass sie es tun und ständig, wie in einem Versuchslabor, experimentieren. Vielleicht sind die Erkenntnisse ja banal, vielleicht arbiträr, aber die Treffsicherheit wächst gerade enorm. Niemand weiss, was Google weiss und was es daraus macht.
 
"Niemand verwechselt Google mit einer Wissensdatenbank." Na, Ihr Wort in Gottes Ohr. Ich würde genau das Gegenteil sagen. Darum auch die ewigen Vergleiche mit der Externalisierung in Bibliotheken und Archiven.
 
+Frank Schirrmacher "welche Rückschlüsse ..." +Sebastian Baumer "Wissensdatenbank" Google hat keine Wissensdatenbank im "klassischen" Sinne der künstlichen Intelligenz. Die gab/ und gibt es nicht (vergl. dazu linguistische Analyseprogramme / Übersetzungsprogramme etc.) Dazu wäre ein digitalisiertes / strukturiertes Weltwissen als Basis für Analysen notwendig.

Google hat Fakten und Beziehungen zwischen den Fakten und ein Bewertungsschema für diese Relationen. (Hier ist das menschliche Vergessen ein gebaut, wenn das Suchergebnis auf Platz 8888.. steht.) Wichtiger ist, das diese Relationen nicht festgeschrieben sind, sondern sich laufend verändern. Es gibt also auch hier kein festgezimmertes: Hier stehe ich und kann ... Google kann im Moment vergleichen, im nächsten Moment können sich die Relationen wieder geändert haben. Google kann an den Stellschrauben drehen, aber nicht am Wissen.
 
Ich bin gerade auf dem Laufband. Willkommen, Herr Dr Schirrmacher. Bin gespannt, ob sich das weiter so gut klaert, wie es bisher aussieht.
 
Rückschlüsse (vermutete): welche Cues lösen bei welchem Nutzer welche Assoziationen aus? welchen tribes lässt er sich zuordnen? wann nutzt er welche information und was bedeutet das im vergleich zu unzähligen anderen nutzern mit ihren jeweiligen informationsbedürfnissen? man kann sich die detailtiefe wahrscheinlich gar nicht tief genug vorstellen. eigentlich ist das bei google ads und google mail und bald auch bei google+ ja schon sichbar. ich werfe das google gar nicht vor, ich glaube sogar das vieles dafür spricht, das ein privatkonzern das weltwissen verwaltet - kritisch wird es halt, wenn das weltwissen und die erinnerung zu vorhersagen werden. noch ein nettes beispiel aus der american academy, aber eher ein anekdotisches für das Problem der Informationsökonomie: als google news online ging, so Schmidt, habe er nach ein paar Monaten den Entwickler gefragt, ob der Roboter Vorurteile haben. Der Entwickler: Ja, er liebe Hockey. Er bevorzug es etwas. Tatsächlich war Hockey für ein paar Monate auch in Ländern eine Art Spitzennachricht, wo man sich dafür gar nicht interessierte.
 
Herr Kappes, anschliessend an unsere früheren Gespräche: don't be evil. :)
 
Und ich wüsste gerne mal, was ein Informatiker zu Pirollis These sagt. Ich habe Pirolli angemailt, ob er meint, was er da sagt, und er sagt: ja. Aber glauben kann und will ichs nicht. Glauben oder auch nur verstehen würde man es erst, wenn man das Wissen hat, das wir bei allem Wissen eben gerade nicht haben: Googles (Apples) Wissen.
 
+Frank Schirrmacher: Also dann noch mal expliziter die Frage: Was hat dieses Sichtbarmachen von unbewussten Vorgängen, das "assoziative Gedächtnis", meinetwegen, das aus der in den letzten Jahren massiv erweiterten Speicherbarkeit und Speicherung von menschlichen Handlungen entsteht, denn eigentlich genau mit Google zu tun, außer, dass Google von der erste und bisher einzige Konzern ist, der das routiniert durchführen kann und durchführt? Wenn man es genau betrachtet, und in dem Artikel kommt sogar das Beispiel des Medienwissenschaftlers vor, der den Spracherwerb seines Kindes minutiös filmt, dann ist diese Fähigkeit nämlich nichts, was Google vorenthalten bleiben wird, sondern das wird eine Alltagstechnik. Insofern ist eine "europäische Suchmaschine" als Antwort auf diese Entwicklung - Verzeihung für den Ausdruck - kompletter Quark.
 
+Frank Schirrmacher "Wäre es nicht so lyrisch, könnte man sagen Google ist auf dem Weg zum Herren auch des Unterbewussten, der Traumwelt zu werden."

Auf dem Weg dorthin türmen sich einige Schwierigkeiten. Ich erinnere mich aus der Ferne, dass eine Idee, die in die gleiche Richtung zielt, von Alfred Lorenzer zum Unbewussten formuliert worden ist. Die Google-Ironie - und die Ironie der Antwort Eric Schmidts - besteht darin, dass das Unbewusste nun nicht mehr gewissermaßen sozialisiert und seine Natur domestiziert wird, sondern in privater Verfügung landet, die eines Tages aus monopolpolitischen Gründen sozialisiert oder in den status von commons überführt werden könnte.

Das Problem beginnt früher. Denn wer sagt, dass meine Suche nach x mit den Codes meines Verlangens (meines Unbewussten) zusammenhängt? Gibt es zwischen den banalen Operationen der Suchmaschine und unserem Unbewussten einen verbindende Operation?
 
Bin kein Informatiker. ".. about cues on a user interface." Das sind ohne jemandem zu nahe treten zu wollen, trotzdem immer noch die Spiel(zeug)welten der Informatiker.

Wenn Sie einen Satz an einem Ort schreiben, kann ich mit meinem Verstand versuchen diesen zu verstehen. Dies wird mir nur in Ansätzen gelingen. Aber wem sage ich das.

Sicher kann ich Schlüsse daraus ziehen, wenn jemand täglich nur die FAZ kauft und morgens einen Espresso trinkt. Das kann ich auswerten und meine Werbung entsprechend ausrichten. Nur das hat wohl auch in Ihrem Verständnis mit "Wissen" nichts zu tun. Wenn Google diese zwei Fakten verbindet - so what. Und Bücher als eine Ansammlung von Buchstaben sind doch auch kein Wissen. Sie müssen verstanden werden. Und das wird Google niemals leisten auch wenn sie alle Bücher dieser Welt versammeln.
 
Lieber Hans Hütt,

Ich glaube die Frage die Sie stellen, ist die entscheidende. In der Tat: wer sagt, dass der Schlüsselreiz x oder die Assoziation y den Code meines Verlangens in Gang setzt. Die Werbung hat ja in 100 Jahren gezeigt, dass das gar nicht so einfach ist. (Deshalb ist auch interessant, dass Google ökonomisch eine Werbemaschine und keine Wissenskathedrale, eine Finde- und Gefundenwerden und keine Suchmaschine ist, siehe Schmidt: Wir werden wissen, was sie suchen wollen, ehe Sie es selber wissen).

Ich glaube auch wenn Google (oder IBM oder Cataphora) noch soviele Psychologen und Anthropologen beschäftigt, das wird auf diesem einfachen Weg wie in die SF Literatur erzählt natürlich niemals gelingen, selbst wenn Genius mir mittlerweile extrem gute Musik empfiehlt.

Aber auch beim Internet hat man gesehen, das künstliche Intelligenz ganz anders entsteht als vorausgesagt, Sie entsteht nicht weil Computer schlau sind sondern weil ihre Algorithmen parasitär die Kommunikation von Menschen auslesen, analysieren, semantisch dekonstruieren, vergleichen. (Auch hierzu Schmidt in Berlin: die pure Masse der Nutzer auf der ganzen Welt erlaubt Musterbildungen, die nie zuvor möglich waren.

Es war bisher undenkbar, dass man die Echtzeitkommunikation von einer Milliarde Menschen, also Schreiben,Reden,Konsum,Bewegung - zumindest in elementaren Bereichen auswerten und in Beziehung setzen kann).


Also kann man die Vermutung nicht ganz als kulturpessimistisch abtun, das sich nicht die Algorithmen sondern dass sich die Menschen verändern werden. Ich weiss nicht, was es mit dem assoziativen Bewusstsein tut, wenn ich als ständige Lebenserfahrung, selbst bei Freundschaften, selbst bei der Partnerschaftssuche, von dem geleitet werde, was Google et al vornehm "Empfehlung" nennen und was ja auch immer besser funktioniert.

Ich fand es immer sehr bezeichnend, das Wolf Singer, hier in Frankfurt, und andere ihre Widerlegung des freien Willens empirisch nur auf Computermodelle stützen, nach Singers berühmten Wort "Verschaltungen legen uns fest". Ich will damit sagen, die theoretischen Grundlagen eines kleinen Weltbildwandels sind längst gelegt. Danny Hillis, der nun wirklich was von Computern versteht, weist darauf hin, das die moralische Rechtfertigung der "digitalen Doppelgänger", die von uns exisiteren,aus der Hirnforschung kommt.

Ich glaube, dass die Google Leute so denken. Sie sind gar nicht böse. Sie haben zum Beispiel gar nicht verstanden, wieso gegen Google Books so ein Aufstand entstand. Sie wollten ja nicht die Bücher verkaufen, sie wollten nur screenen welche Gehirne was und unter welchen Bedingungen, mit welchen Wünschen und Vorlieben lesen.(Diese Erkenntnisse hätte ich auch gerne).

Sie hatten eben überhaupt nicht an den Urheber gedacht, denn den gibt es eben nicht mehr - verstehe ich bei creative commons, aber wie ist bei der Frage, ob man Urheber und Autor seiner eigenen Taten und Wünsche ist?

Vor Jahren entwickelte Patty Maes den ersten "intelligenten Agenten" für Konsumssteuerung, also das was Amazon und Apple und alle anderen jetzt selbstverständlich alle haben. Damals gab es Protest von Informatikern, die vom "Ende des freien Willens" durch Berechnung von Assoziationen redet. Und jetzt? John Bargh, einer der einflussreichen unter den jungen Psychologen der USA, schreibt über den "unerträglichen Automatismus des Seins" und von jenen "geistigen Butlern", "die unsere Absichten und Vorlieben so gut kennen, dass sie sie vorwegnehmen und regeln".

Ich will damit nur sagen: natürlich haben Sie Recht, und es wird im klassischen Sinne "nie stimmen". Aber es stimmt eben dann doch, wenn wir in einer Gesellschaft leben, die sich faktisch darauf geeinigt, dass alles Dinge vorausberechenbar sind. Sie wissen besser als ich, dass wir den Anwendungsfall seit Einführung des Computerhandels an den Börsen erleben.


Das führt jetzt sehr weit weg vom Thema, ich entschuldige mich dafür. Aber bei aller Liebe zu den neuen Technologien und der Freude über das Privileg so, wie wir es hier tun, zu reden und zu schreiben, verstehe ich einfach nicht, warum die andere Seite so wenig gesehen wird: die Industrialisierung des Geistes, wirklich eine ganze neue Ausformung des Kapitalismus. Fehlt nur noch die Wiederkehr von Prädestinationslehren - aber die gibts ja auch schon, Sarrazins Buch und vor allem sein bezeichnender Erfolg ist, auf der Schwundstufe, nichts anderes als das.
 
Lieber Frank Schirrmacher

in der Tat, ein weites Feld. Literarisch gab William Gibsons Roman "Pattern Recognition" eine Vorahnung, in welche Richtung diese Reise geht.
tbc
 
Ich habe das Buch von Pirolli aus 2007 leider nicht gelesen, aber das Interview und die erläuternden Texte zum Buch besagen, dass er ein Modell entwickelt hat, wie Menschen bei der Informationssuche entsprechend der Nahrungsaufnahme Strategien und Heuristiken anwenden, um zum Ziel zu kommen. Software loggt das Verhalten des Menschen an der Mensch-Maschine-Schnittstelle mit. Also: Clickstream-Analysen, Eyetracking, Mouse-Tracking etc, was seit 10+ Jahren aus der Usabiltiy-Forschung bekannt ist und praktiziert wird. In seinem Buch stellt er ein Modell vor, wie aus diesen Daten Assoziationsketten als Hypothesen angenommen werden, um das Verhalten zu prognostizieren und die Software sich hierauf einstellen zu lassen (Adaptive Software).
Für mich hört sich das etwas "aufgeblasen" an, weil ich Dutzende von Projekten erlebt habe, wo wir vor diesen Daten sitzen (deren Erhebung ist bei grossen Websites häufig zu finden, alle grösseren Webanalyse-Pakete wie Omniture oder Econda haben so etwas) und fast nichts damit anfangen können, damit will ich aber nicht ausschliessen, dass Pirolli und andere Wissenschaftler da schon sehr viel weiter sind, da es die gewaltigen Datenmengen sind, die uns Experten bei der Interpretation Schwierigkeiten machen (Stichwort Big Data).
Pirolli sagt auch, dass der Mensch sich anpasse. Und so kennen wir es wohl alle: wir entwickeln Heuristiken, wie wir mit geringstem Mitteleinsatz schnell zum Ziel der Informationssuche kommen. Adresse finden wir unter "Kontakt". Wir klicken uns auf bestimmte Weise durch Navigationsräume, wir interpretieren Buttons und deren Farben, wie schliessen aus Teaser-Positionen*, wir gehen logische Bäume so oder anders durch - die einen besser, die anderen schlechter (und die besseren Nahrungssucher haben sich den Maschinen-Schnittstellen besser angepasst.) Das halte ich aber für einen Lernprozess, wie wir ihn auch von anderen Werkzeugen kennen: etwa muss ich mich anpassen, um Autofahren zu können, und der Umstieg von Automatik auf Schaltung ist ja einer, wo wir alle wohl merken, dass wir uns dort der Schaltungsart unseres Fahrzeuges angepasst haben. Hier würde ich mir weniger Sorge machen.
Mehr Sorge mache ich mir auch wegen der Möglichkeiten, unser Verhalten zu analysieren und Interessen und Absichten aufzudecken, und zwar ohne dass wir eine Vorstellung bei der "Produktion" dieser Daten haben, was sich hieraus machen liesse (der Klassiker ist ja die 2007er Studie vom MIT über Homosexuelle in sozialen Netzwerken). Ganz konkret glaube ich zum Beispiel, dass wir a la long keine Anonymität oder Pseudonymität im Internet haben werden, weil Software unsere Interaktionsmuster erkennt, von Themen bis zu sozialen Beziehungen, aber auch über den Textvergleich die Identität zweier Autoren mit hoher Wahrscheinlichkeit prognostiziren kann.
Und der Aspekt des "parasitären", den Sie, Herr Dr. Schirrmacher, oben beschreiben, beschäfttigt mich auch. Maschinen müssen nämlich selbst gar keine Schlüsse aus Personenverhalten ziehen, wer von uns hier "echt" ist oder nicht. Sie erkennen es nämlich am Verhalten des Interaktionspartners. A kann als Mensch viel besser als eine Maschine erkennen, ob B "echt" ist, so wie ich es heute mittag mit DonAlphonso gemacht habe, weil mich eine Antwort stutzig machte. Die Maschine muss nur mich als Interaktionspartner beobachten - sie ist "parasitär", weil sie sich meine Erkenntnisse zu eigen macht.
Gute Nacht.

*: Das ist der SEM-Klassiker (Adwords): Die Nutzer klicken sogar rechts auf die Anzeige, wenn es Ergebnisse aus der organischen Suche in der Mitte gibt, weil sie gelernt zu haben glauben, dass sie dort rechts ihr Suchergebnis besser finden (das ist der Artikel aus 2007 über Pirolli/Google). Es ist sogar die Klickrate höher, wenn es eine (bezahlte) Anzeige in der Mitte gibt, als wenn es nur einen (unbezahlten) Treffer an erster Stelle gibt; das liegt daran, dass die Nutzer eher auf farblich hinterlegte Flächen klicken als auf weisse Flächen.
 
Interessant wie man innerhalb eines Artikels völlig gelassen die Digitalisierung kommentieren kann:

"Es ist so, es war schon öfter so – man denke an die Polemik des Sokrates gegen die Schrift –, der Mensch hat schon immer Wissen und Erinnerung ausgelagert. Mit dem Merksatz „Das was man nachschlagen kann, muss man nicht erinnern“ zitiert Jürgen Kuri vom Magazin „c’t“ seine alten Lehrer."

und einige Zeilen später wieder den dreifaltigen Teufel (in drei Teufels Namen) an die Wand schreiben:

"Nach dem Stand der Dinge liegt das wirkliche Wissen heute in der Hand von einem, mit Apple und Facebook maximal drei Mega-Konzernen."
 
Nur kurz beigefügt:
„Alle Wissenschaften der Spurensicherung machen vielmehr den Freud-Satz wahr, daß "die Sterblichen kein Geheimnis verbergen können", weil "der Verrat aus allen Poren dringt". Und weil (wie zu ergänzen ist) seit 1880 für jeden Verrat ein Speichermedium bereitsteht. Sonst gäbe es kein Unbewußtes." (Friedrich Kittler, 1993)
 
+Peter Glaser Die größten Geheimnisse bleiben die offenbaren.

+Frank Schirrmacher tbc --- Die Protagonistin in Gibsons Roman somatisiert kulturell und macht aus ihrer Allergie gegen Markenzeichen die Quelle ihrer Einkünfte. Wenn die "Kreativen" wieder zugeschlagen haben, rückt sie an und begutachtet.
 
Eines der Probleme beim Auslesen des menschlichen Verhaltens ist zumeist der Schluß auf bestimmte Konzepte und Motive, die einer Person unterstellt werden. Da das Subjekt oder die Personinstanz in uns nur ein Gerüst ist, um die einströmenden Informationen auf der Grundlage des bereits bewältigten Lebens auf Neues und Bekanntes abzuklopfen, machen sich die Mustererkenner auf den Weg des naiven Behaviorismus. Mit dem strengen Blick auf unser wiederholbares Verhalten extrahieren sie Daten. Rekurrente neuronale Netze nutzen diese Daten um ihre "Lernmenge" über unser Verhalten zu profilieren.
Wenn Google also Milliarden von Daten über Surfverhalten anlegt um daraus Erkenntniss zu extrapolieren, dann begehen sie nicht nur den berühmten Ryleschen Kategorienfehler, dass sie den Mannschaftsgeist suchen, während sie die Spieler und die Regeln beobachten. Wir wissen, dass dem intelligenten Handeln kein Erwägen voraus geht. Wir entscheiden zuerst und dann findet die Personeninstanz rationale Begründungen, die zum Selbstmodell passen. Die mentalen Modelle, die die Wissenschaftler bei Google auf der Basis der Mutererkennung entwerfen, sind ein künstliches semantisches Gestell, das eine zweite Welt stützt, die Google beherrschen will. Es ist jedoch keinerlei Pragmatik regelbasiert formulierbar.

Wir können sie dabei gewähren lassen. Denn ihre Grundannahme ist defizient: Vorhersagen sind aufgrund historischer Betrachtungen wahrscheinlich zutreffend.
Denn intellektuelle Handlungen sind eine unmittelbare Praxis und die Unterstellung, dass dahinter immer eine regelhaft beschreibbare Motivlage (eine Personeninstanz) liegt, ist nur aus der Beobachterperspektive eines Wissenschaftlers sinnvoll. Er kann damit seine wissenschaftliche (objektive) Absicht methodisch begründen. Wir alle aber wissen aus der Erste-Person-Perspektive, dass immer die Gegenwart als Anlass fehlt. Jeder Eintrag in ein Tagebuch behandelt nur die vorletzte Tat, da die Eintragung selbst schon wieder neue Gegenwart ist. Genau wie wir kann Google nur unsere Inhalte erfahren und auch davon nur den sprachlich codifizierten Teil. Die Prozesse sind generell opak. Wenn die Assoziationsmaschine von Google aufgrund der Lernmenge Hockey tollfindet, weil ganz zu Beginn der Fütterung der neuronalen Netze ein Sportfreak die Maschine bediente, dann ist es vor stellbar, dass wir nichts anderes tun, als beim Benutzen von Google das Ewiggestrige zu feiern.

Insofern stiehlt uns Google die Zukunft, weil die Technologie die Gegenwart immer auf der erlernten Basis des Gestern bewertet. Dies muss ein Horror sein für die Jungs aus Mountain View. Denn sie sind damit Historiker der Zeitgeschichte und NICHT in der Lage unsere Assoziationstätigkeit zu simulieren, die immer eine prophetische Hinwendung zum Jetzt ist mit dem Hunger auf eine Erweiterung auf etwas Neues und Unerwartetes.
 
+ Jörg Wittkewitz
Das erinnert mich an den Plot von Elfie Mikeschs Film MACUMBA. Der Protagonist ist ein erfolgloser Privatdetektiv, der eine neue Methode der Kriminalprävention erfunden hat, die ihn in die Lage versetzt, das Verbrechen, wenn schon nicht zu verhindern, so doch an Ort und Stelle aufzuklären. Was er in dem Modell nicht vorhersah, war, dass er selbst Opfer des Verbrechens wurde.
 
Wenn ich dieser interessanten Diskussion hier folge so scheint mir, dass die Konzepte Identität, Gedächtnis, Wissen durch Suchmaschinen erst in einem zweiten Schritt beeinflusst werden. In erster Linie haben wir es mit einer Privatisierung von Daten über menschliches Verhalten (zumindest in durch Rechner begleitete Kontexte) zu tun, die in ihrer Präzision, Vernetztheit und Umfang kein Gegenstück haben. Dies ist von Seiten der sammelnden Unternehmen erst einmal nicht verwerflich führt aber zu einer Assymmetrie von potentiellen Wissen über menschliches Verhalten in genau diesen Kontexten. Privatwirtschaftliche Forschung hat plötzlich einen nicht auszugleichenden Vorteil in der Theoriebildung über menschliches Verhalten, da sie Zugang zu einer nicht öffentlichen und nicht reproduzierbaren Datenbasis hat. Bestenfalls kann es zu privilegierte Zusammenarbeit zwischen Firmen und einzelnen Forschungsinstituten kommen (wie zB von Noshir Contractor mit Sony oder Albert-László Barabási mit einem Mobilfunkunternehmen). Für die Forschung ist diese Situation allerdings problematisch. Hier kann ich +Frank Schirrmacher gut verstehen wenn er in diesem Kontext eine "europäische Suchmaschine" fordert. Hier geht es nicht um Konkurrenz mit China oder US amerikanischen Unternehmen, hier geht es darum, die Basis potentieller Erkenntnisse über menschliches Verhalten anzugleichen.

Erschwerend kommt dann in einem zweiten Schritt hinzu, dass Unternehmen auf Basis dieser Daten Modelle über menschliches Verhalten bauen und diese Modelle über Algorithmen die menschliche Interaktion mit der Maschine beeinflussen. Hier scheinen mir die Konzepte Identität, Gedächtnis und Wissen ins Spiel zu kommen. Ich sehe diese noch nicht determiniert durch Suchmaschinen aber zumindest scheint es mir sinnvoll von der Möglichkeit eines Einflusses auszugehen. Hier taucht dann die tatsächliche, gesellschaftlich problematische Intransparenz auf:

Private Datensammler (Suchmaschinen, Mobilfunkbetreiber, Kreditkartenunternehmen et al) bilden auf Basis der ihnen vorliegenden Daten Modelle über menschliches Verhalten -> auf Basis dieser Modelle geben sie Nutzern ihrer Dienste Impulse oder unterschiedliche Informationen -> dies führt wiederum zu potentiell veränderten Handeln dieser Nutzer.

Solange diese Modellbildung intransparent ist aber auf Basis dieser Modelle das Verhalten und die Informationswahrnehmung von grossen Teilen der Bevölkerung beeinflusst wird halte ich dies für ein Problem.
 
(Was ich wirklich beeindruckend finde, ist die Qualität der Beiträge hier. Wow. Ich gehe mal davon aus, dass ich nicht moderieren muss. Euer Teledienst-Betreiber :-))
 
Nun, zum Thema Gedächtnis sollte man etwas weiter ausholen: Es gibt 5 Gedächtnisse. Das erste ist das prozedurale Gedächtnis, also automatisiert ablaufende Fertigkeiten. Das Priming ist der Teil, der bereits erlebte Situationen in Gänze erkennen kann. Bei Hirnschäden liegt zwischen beiden oft ein Hiatus und macht für uns vieles unverständlich an dem Erleben und Verhalten solcher Personen. Das semantische Gedächtnis ist für unsere internern Abbildungen von Sprachkonzepten essentiell, wie der Name schon sagt. Einige Forscher glauben, dass es möglich wäre das faktische Wissen emotionslos in diesem semantischen Kasten aufzuheben, dazu gehören u.a. die Forscher von Google. Das episodische Gedächtnis ist der spannendste Teil für unsere Diskussion, da auf der Basis der aktuellen Situationen eine Autobiografie entsteht und erst im Überblick über vergleichbare Erlebnisse können dann Kategorien als Abstraktionen auftauchen. Google will mit ähnlichen Zeitreihenbeobachtungen wie das episodische G. sie "anstellt", ein Muster zusammenbauen. Der Zusammenhang zwischen dem semantischen und episodischen G. ist jedoch in vielerlei Hinsicht ein Rätsel. Hierbei ist der Begriff der Dekontextualisierung zentral. Besonders schwieirg wird die ganze Sache, weil es neben dem episodischen noch ein autobiograhisches Gedächtnis gibt, dass sozusagen die Persönlichkeit begleitet, während das eher mittelfristige episodische Gedächtnis das semantische mit Inhalten beliefert...

Google kann, wenn überhaupt, nur die regelbasierten Anteile des semantischen Gedächtnisses simulieren. Dabei ist es völlig blind für die jeweils aktuelle Pragmatik der Menschen. Es weiß nicht, ob bei der Suchanfrage KREBS, das Tier, das Sternzeichen oder die Krankheit gemeint ist. Auch ein Extrapolation auf der Grundlage alter Suchanfragen ist hierbei wie oben ausgeführt ein Tappen im Dunklen Wald der Geschichte. Wer erlebt hat, wie die Versicherungen und Banken von Softwarefirmen abgezogen wurden mit millionenteuren Datawarehouse-Projekten, der kennt noch den alten Spruch: "Wer sich auf einen besonders großen Rückspiegel fokussiert, versperrt sich die Sicht auf die Fahrbahn."

Bearbeitung: Orthographie
 
Das Konzept Wissen existiert noch nicht in tragfähiger Definition. Es ist völlig unklar, was wir mit Wissen zusammenfassen. Es ist offenbar, dass das Wissen selbst nicht in Buchstaben transportierbar ist. Zur Identität gibt es m. E. keine Ideen bei Google, da zunächst formal geklärt werden müsste, was ein Selbst ist. Denn nur ein Selbst kann gleiche Erlebnisse als einer identischen Person oder Autobiographie zuordnen. Da wir es bisher nur mit einer zweiwertigen Logik zu tun haben (wahr und falsch). Kann keine Software der Welt etwas als "Wahr, aber fremd" oder "Wahr, aber persönlich" zuordnen. Identität ist so gesehen ein Problem der Erste-Personen-Perspektive, die wissenschafstheoretisch ungeklärt ist. Ihre Existenz wird nicht bestritten, aber ihre Beweisbarkeit ist schon ein kaum lösbares Problem.
 
+Jörg Wittkewitz Jetzt kann ich meine angefangene Antwort wegwerfen. Danke, schön und richtig erklärt. Jetzt muss nur noch die Geschichte mit der Kontrolle über das Unterbewußtsein bzw. mit der Antizipation künftiger unbewusst gesteuerter Handlungen geklärt werden. Obwohl: Implizit ist dies schon enthalten.

Aber das könnte am Glauben an die Autonomie des Menschen als denkendes, zielgerichtetes Wesen knabbern. Mal sehen ...
 
Eine Passage im Text von Schirrmacher ist doch höchst erfreulich: "Das Netz, das wird immer deutlicher, folgt den Regeln des talmudischen Kommentars, nicht denen des wissenschaftlichen. Offenbar nehmen wir Quellen, auch nachrichtliche, zunehmend als Glaubensinhalte wahr, nicht mehr als Fakten. Es könnte so sein, aber es könnte auch anders sein. Die alltägliche Wissenssozialisation beruht heute auf der Annahme: Die Fakten stimmen nicht mehr, jedenfalls stimmen sie nicht sehr lange – nicht deshalb, weil sie gelogen wären (auch das kommt vor), sondern weil sie schon in der nächsten Minute ganz anders sein können. Das Netz – in seinem gegenwärtigen Stadium – verhandelt deshalb vor allem das, was die Talmudisten 'Lehrmeinungen' nannten – Meinungen, nicht Orthodoxien. Das führt allerdings oft dazu, dass sich auf den labyrinthischen Wegen der Deutungen, des unvollständigen Lesens (etwa der Pressemitteilung, wie im vorliegenden Fall, statt des Textes) die Ursprungsquelle bis zur Unkenntlichkeit entstellt." Die Schlussfolgerung im letzten Satz halte ich für falsch. Richtig beobachtet ist die sinkende Relevanz der Orthodoxien. Da braucht man nicht zum Talmud greifen. Niklas Luhmann reicht auch: Mit der Computerkommunikation, so Luhmann, wird die Eingabe von Daten und das Abrufen von Informationen soweit getrennt, dass keinerlei Identität mehr besteht. Wer etwas eingibt, weiß nicht, was auf der anderen Seite entnommen wird. Die Autorität der Quelle wird entbehrlich, sie wird durch Technik annulliert und ersetzt durch die Unbekanntheit der Quelle.

Ebenso entfällt die Möglichkeit, die Absicht einer Mitteilung zu erkennen und daraus Verdacht zu nähren oder sonstige Schlüsse zu ziehen, die zur Annahme oder Ablehnung der Kommunikation führen könnten. Die moderne Computertechnik greift die Autorität der Experten an. Fast jeder hat mittlerweile die Möglichkeit, die Aussagen von Wissenschaftlern, Journalisten, Unternehmern oder Politikern am eigenen Computer zu überprüfen. Die Art und Weise, wie Wissen in den Computer kommt, lässt sich zwar schwer überprüfen. Sie lässt sich aber jedenfalls nicht mehr in Autorität ummünzen. Und genau das treibt einige Denker, Einpeitscher und Debatten-Dompteure an die Decke. Man braucht das Internet nicht überhöhen oder kultisch in Web 2.0-Ideologie gießen. Man muss das Internet auch nicht heilig sprechen. Wo die kulturellen Katastrophen der Computer-Kommunikation enden werden, kann kaum jemand vorhersehen oder beeinflussen. Das macht das Ganze ja so reizvoll. Das Problem des unvollständigen oder kursorischen Lesens kann vom Luhmann-Szenario nicht abgeleitet werden. Das Problem hatte schon Herder. Jeder Leser ist eben auch ein Nicht-Leser. Herder beschreibt sich als trockener Gelehrter, als ein totes, künstliches System von Wissensbeständen. Er selbst sei "ein Tinenfaß von gelehrter Schriftstellerei". Mit 24 ist Herder so angefüllt von Wissen, dass er dieses als Ballast beklagt.

Er entwickelt deshalb eine Kulturtechnik der kursorischen Lektüre. Er wird zum Läufer, zum Cursor, der im virtuellen Raum der Gelehrtenbibliothek zwischen Texten durcheilt und in dieser schnellen Bewegung neue Querverbindungen schafft. Es sei ein methodisches Verfahren, das ihm die Lizenz zum Flüchtigen gibt. In der so genannten „percursio“- im Durchlauf – darf aufgezählt und angehäuft werden, ohne dass es jeweils einer expliziten Behandlung der einzelnen Elemente bedarf. Herder praktiziert die gelehrte Lizenz, Materialmengen „aufs Geratewohl“ zu durcheilen. Die richtige Ordnung ist dabei zweitrangig. Die Sylvae wird definiert als Sammlung von schnell niedergeschriebenen Texten. Man schreibt nicht akademisch korrekt oder pedantisch genau, sondern aus dem Stegreif. Man formuliert aus dem Schwung heraus. Seine Lektüre ist nicht mehr festgelegt auf einen ursprünglichen oder autoritätsfixierten Wortlaut. Herders Suchläufe kennen keinen Abschluss. Das Universalarchiv ist uneinholbar. Eine beständige Lektüre der Menschheitsschriften ist unmöglich. „Alles“ ist nicht zu lesen, zu kennen, zu wissen. Es reicht nur zu Verweisen und Fundorten. Entscheidend ist die Zirkulation der Daten, der Datenstrom, der keinen Anfang und kein Ende hat, der neue Routen und Entdeckungen zulässt. Kanonische Wissensbestände müssen durch intelligente Suchroutinen ersetzt werden.

Und dann landen wir wieder bei Google und den Warnungen von Schirrmacher, die er schon in seinem Buch "Payback" in etwas anderer Form artikuliert hat. Die Vernetzung von Maschinen und Menschen zu Bedingungen, die von der Maschine diktiert werden. Es ist die Unterwelt der Benutzeroberfläche, die den FAZ-Herausgeber wohl weiter umtreibt. Maschinenräume im Silicon Valley, die ein Nichtinformatiker niemals zu sehen bekommt. Dort würden unsere digitalen Doppelgänger gebaut. Am Ende mündet das Ganze in Maschinen-Paternalismus - das kann allerdings unter privater und auch staatlicher Regie eintreten. Selbst unter dem Regime einer europäischen Suchmaschine. Mich würde ein Blick in den Maschinenraum von Google auch brennend interessieren. Vielleicht eher eine Aufgabe für Wikileaks!
 
Herr Dezelski, schreiben Sie das doch. Ich erinnere mich nur an das Experiment, dass irgendein Muskel kontrahiert oder die Nervenbahnen zu ihm schon aktiv sind, bevor das Gehirn den Gedanken bringt. Das finde ich ein bisschen duerftig. Aus Nervenbahnenaktionen auf den Willen zu schliessen....
 
Ein Blick unter die Motorhaube ist fast einfach: Zunächst werden alle Inhalte im Netz indexiert. Dazu werden die Texte normalisiert. Das heißt: Komposita-Zerlegung, Reduktion auf Grundformen, Stoppworterkennung, Erkennung von Mehrwortbegriffen, Phrasenerkennung Zerlegen von Morphemen etc. Dann wird der reine Text mit vielen statistischen Verfahren wie aktuell einer Support Vector Machine analysiert und kategorisiert sowei mit ähnlichen Texten in einen Kontext gestellt. Dann wird die Nutzerinteraktion mit den Inhalten analysiert. Nutzersuchanfragen können dann in Bezug zum Dokument oder Text aufgezeichnet werden unter Einsatz diverser Parameter, sodass Die Pragmatik in Relation zu Semantik gestellt werden kann. Aber, das ist im Moment das Problem. Sie müssen jetzt mit uns als Laborraten in Google+ validieren, per sentiment anaylsis, wie wir über Texte und Autoren denken und schreiben...
 
Gunnar Sohn et al, leider in Eile: 1. Wir wissen n i c h t was Google weiss. Oder finden Sie irgendwo im Netz die Ergebnisse der minütlichen Analytik und ihrer Hochrechnung, jenseits der meistgesuchten Suchbegriffe. Das aber ist das Wissen des 21.Jhrdts.

2. "Alles“ ist nicht zu lesen, zu kennen, zu wissen." Das ist ja gerade nicht das Neue! Das wussten ja gerade die Enzyklopädisten am besten. Das Neue ist doch umgekehrt, das der imaginäre Vertrag, an den alle glauben, besagt das "alles" zu wissen ist, was ist und kommuniziert. Tertium non datur. Man exisitert nicht, wenn man nicht im Netz exisitert, hiess das ja mal so schön. Konsequent entstehen erstmals seit der Reformation wieder Institutionen der Allwissenheit, die ihre Priester in die Marketing- und Personalabteiungen entsenden.
 
Frank Schirrmacher - Zu. 1. Das ist doch profan. Natürlich wissen wir nicht, was die Mountain View-Boys wissen. Sonst könnten wir direkt morgen ein Google Plus Plus gründen. Die wären schön blöd, ihre Betriebsgeheimnisse zu lüften. Die Problematik entsteht in der Tat, wenn Menschen über Maschinen und Algorithmen anfangen, zwischen gut und böse, richtig und falsch zu befinden.

2. Ihre Gegenstrategie einer europäischen Suchmaschine kann genauso in die Hose gehen und zu Verwerfungen führen. Entscheidend ist die Vielfalt der Möglichkeiten, Wissen zu generieren und selber zu publizieren. Wenn Sie nun insinuieren, hier gäbe es nur drei amerikanische Konzerne, die das Netzgeschäft dominieren, dann müssen Sie aber auch erwähnen, dass die großen Drei sich bis auf das Messer bekämpfen. Da gibt es keinen Gleichklang. Im Social Web erschien bis vor drei Wochen Google noch als der große Verlierer und man sprach von der Dominanz des Social Graph, der wichtiger sei als die Maschinen-Intelligenz von Google. Zur Zeit schaut Zuckerberg ziemlich blöd aus der Wäsche. Alles kann sich sehr schnell drehen. Entscheidend ist wohl die Tatsache, dass sich im Netz dauerhaft kein Monolith etablieren kann.
 
ad Gunnar Sohn - Nein, nicht profan, sondern, um im Bild zu bleiben, sakral. Sie reden vom materiellen Geschäftsgeheimnis von Google. In der Tat: wie wichtig das ist zeigt der Patentthriller um die Erfindung des Telefons. In der Tat: das ist profan.

Das wirkliche Geheimnis ist nicht der Algorithmus, der uns füttert, sondern den wir füttern. Was wohl gewesen wäre, wenn Bells Erfindung alle Telefonate aufgezeichnet hätte, analysiert hätte, Stichwörte gefiltert hätte, Rückschlüsse auf Ort, Zeitpunkt und Stimmfärbung getroffen hätte und das ganze dann als sein Privateigentum weiterverkauft hätte.Wenn das:

http://online.wsj.com/article/SB10001424052748704547604576263261679848814.html

schon möglich ist, ohne verbale Kommunikation und bei nur 2000 Menschen, was ist dann heute insgesamt möglich? Das wüsste ich gern, mehr nicht. Gegen das Sakrale hilft nur Aufklärung - das würde schon reichen, hat nämlich auch in der Vergangenheit schon geholfen.
 
zum nebenpunkt mit der europäischen suchmaschine: wenn ich +Frank Schirrmacher s kommentare hier richtig verstehe, will er gar nicht so sehr die eu-konkurrenz gegen us-google, sondern eine art CERN-forschungszentrum für semantische algorithmen, damit "wir" (wer?) uns hier auch mit diesen großartigen weltwissenserkenntnissen beschäftigen können. das verstehe ich schon. es gibt bloß vermutlich keinen weg dahin zu kommen: jedenfalls ganz sicher nicht, indem die EU-forschungsgemeinde sich selbst noch ein monsterprojekt genehmigt. (und auch google entstand ja nicht, weil das pentagon große forschungsgelder investiert hat.)
 
Martin Lindner - der Nebenpunkt ist doch schon längst eingetütet mit dem Projekt Theseus und den Forschungsarbeiten von DFKI und Co. in Richtung eines semantischen Webs. Zu Frank Schirrmacher: Was ist denn zur Zeit der Ausfluss dieser Analysen unserer digitalen Lebensspuren? Personalisierte Werbung und personalisierte Services, not more. Bislang also höchst profane Dinge.
 
Was für eine schöne Diskussion!

Mal jenseits des der politischen Frage, nach dem Besitz der Infrastruktur (dazu gleich), fehlt mir ein wesentlicher Aspekt bei der Frage nach dem Gedächtnisses: Warum tun wir das? Denn wir tun es ja ganz offensichtlich, also hat es ja einen gewissen Sinn, einen Nutzen.

Jan Assmann hatte für das kulturelle Gedächtnis bereits gezeigt, dass im Zuge der Erfindung der Schrift eine gewisse Liberalisierung des Umgangs der Kultur vollzogen hat. So war die kulturelle Identität der Juden recht früh "portabel", weil sie in Schrift fixiert war und nicht mehr an rituelle Gedenkorte, wie noch bei den Ägyptern.

Groys wiederum zeigt, wie sich der Kunstbegriff im Laufe der Jahrhunderte von einem Reproduktiven, eng gefassten hin zu einem auf das Neue ausgerichteten entwickelt. Seine These: je besser wir Informationen und Wissen zugänglich halten (Mächtigkeit und Accessibility von Archivtechnik), desto mehr kapriziert sich Kultur auf die Erschaffung von neuem und dem Fortschritt - auf Irritation des Bestehenden, sozusagen.

Ich als neophiler Mensch begrüße das sich zum Allarchiv wandelnde Internet und weine den dadurch obsolet werdenden Stützen der repititiven - das heißt sich auf Tradition berufenden - Kulturtechniken des Archivierens keine Träne nach.

Natürlich ist es eine politische Frage, wer die Infrastruktur für diese Technik bereitstellt, das will ich gar nicht leugnen. Aber erstens sehe ich Googles Übermacht da nicht so extrem, sondern durchaus austauschbar und zweitens glaube ich, dass die konkurrierenden Strukturen (z.B. Staat) keinerlei vernünftige Alternative bereitstellt. Weder eine wünschenswerte aber vor allem aber keine effektive.

Es gibt viele Szenarien, wie sich das politisch austariert. Aber keines davon wird ein Staat vs. Google beinhalten, m.E.

Bis dahin halte ich es für wichtig den Infrastrukturanbietern so wenig exklusives Wissen wir möglich zu erlauben. Nur Wissen, das von allen indexierbar und analysierbar ist, sollten die großen Player bekommen. Das heißt: nieder mit den Privacyeinstellungen!
 
Zwischendurch ein Versuch, mal aus der Business-Sicht etwas zu sortieren:
1. Die Thematik betrifft nicht nur Google, sondern sämtlich Internetdiensteanbieter, die Personenattribute und "Bewegungsdaten" (genauer Clickstreams/Seitenabrufe...) in ausreichenden Mengen sammeln, um Verallgemeinerungen treffen zu können. Es ist also auch Facebook sowie in Deutschland etwa Web.de mit gut 30% Marktanteil bei Maildiensten und alle ISPs.
2. Betroffen sind nur diejenigen Unternehmen, die Anstrengungen unternehmen, diese Daten auszuwerten und die finanzielle Ressourcen sowie das technisch-konzeptionelle Knowhow verfügbar haben, damit reden wir vor allem von den "Big Ones" (G, FB, Apple, MS, IBM...), aber auch einige Startups oder Spezialanbieter wie Wolfram Alpha. Von Facebook etwa kennen wir das Facebook Data Team, http://www.facebook.com/data. Stellenprofile mit entsprechenden Skillprofilen für "online social behavior analysis" finden sich öffentlich, etwa hier http://www.facebook.com/notes/attention/job-posting-data-analyst-social/10150277132727788. Von deutschen Anbietern wie web.de ist nichts über derartige Anstrengungen bekannt.
3. Im Zentrum der Diskussion stehen m.E. Anbieter mit werbefinanziertem Geschäftsmodell und zuliefernde Technologieanbieter. Diese stellen jedoch einen Teil ihrer Erkenntnisse wieder der Öffentlichkeit bereit, etwa http://www.facebook.com/data (lohnt sich) und auch von Google gibt es einige Projekte, andere bieten Nutzerdaten anderen Unternehmen gegen Entgelt, Beispiel Twitter und hier mal ein spezielles Beispiel im Markt der Sentiment-Analysen hier http://www.businessweek.com/technology/special_reports/20110301ceo_guide_sentiment_analysis.htm. -> Man sieht, soweit die Daten öffentlich zugänglich sind, hat nicht nur Google sie. Jeder kann sie erwerben. Vorausgesetzt, es findet sich ein Technologieanbieter, der diese Dienstleistung beherrscht und erbringt.
4. Unser Problem hier scheint zu sein, dass wir eine anspruchsvolle Diskussion über Fakten und Möglichkeiten von "etwas" sprechen, was wir kaum kennen. Das ist aber leider nicht mit dem Thema "Geschäftsgeheimnis" erledigt, was tatsächlich profan wäre: natürlich wissen auch Pharma-Unternehmen gesellschaftlich wichtiges Wissen, bevor sie etwas patentieren. Natürlich wissen auch Old-Economy-Anbieter viel über uns, sie sind jedoch wie Banken einer Aufsicht und Regeln unterworfen. Die Besonderheit der Internetanbieter ist, dass sie soziales Verhalten erschliessen wollen (aufgrund des Geschäftsmodells!) und aus diesen Erkenntnissen wiederum Schlüsse ziehen UND - anders als ein OTTO oder eine HVB - sich dem unmittelbaren gesetzgeberischen Zugriff entziehen. Und das sie, Natur des Geschäfts, so verstehe ich Eric Schmidt, a priori davon ausgehen, dass die gewonnenen Erkenntnisse ihnen zustehen. Das allerdings ist genau die gleiche Lage wie etwa im Pharma-Bereich: wer forscht, dem stehen die Ergebnisse zu.
5. Das Problem ist inzwischen möglicherweise, dass Technologieführer heute einen solchen Vorsprung aufgebaut haben, dass man die deutschen Experten wie die Stecknadel im Heuhaufen suchen muss, um eine Einschätzung des Machbaren zu erhalten. Schon aus diesem Grunde bin ich persönlich der Meinung, dass hier ein Ruck durchs Land muss. Ansonsten wissen wir nämlich bald nicht mehr, was andere wissen könnten, und führen nur noch Diskussionen um hypothetische Probleme.
 
+Martin Lindner Das sehe ich ähnlich. Damit (http://en.wikipedia.org/wiki/File:Google%E2%80%99s_First_Production_Server.jpg) kommt Google schon seit geraumer Zeit nicht mehr aus. Wenn man sich die gewaltigen Ausmaße von Googles Infrastruktur, sei es technisch oder personell ansieht, wird schnell klar, dass ohne ein starkes Businessmodell nichts geht. Das hat Google ohne Frage und dazu gehört wohl eben auch die großartigesten Erkenntnisse über die Menschheit nicht sofort preiszugeben.

Die europäische gemeinnützige Forschungssuchmaschine ist eine Utopie und verleiht der Überschrift einen so reißerisch-irrwitzigen Ton, dass mir das den Artikel ein wenig kaputtgemacht hat.

Übrigens: Den Punkt Google speichere ja gar keine Daten, der hier in der Diskussion vermehrt aufkam würde ich so nicht unterschreiben. Die Vernetzung der Daten von Google+ mit der Suche spricht eine andere Sprache. Ich bekomme davon aber keinen erhöhten Pulsschlag.
 
+Gunnar Sohn: ja, Theseus müsste ja eigentlich gerade auf der zielgerade sein? eine lachnummer, offensichtlich.
http://www.theseus-programm.de/images/THESEUS_NEWSletter_Ausgabe_1.pdf
und nein, die Upper Case "Semantic Web" EU-forschung mit hunderten nutzloser sauteurer projekte, die irgendwelche kommerziellen "dienste" vernetzen wollen, hat fast nichts zu tun mit dem lower case semantic web, das mit der "kambrischen explosion" des web 2.0 beiläufig entstanden ist und das (da hat Schirrmacher recht) die aktivitäten der menschlichen user matrixhaft einbezieht.
 
+Martin Lindner Kannst Du uns bitte erklären, was Du mit "lower case" semantic web meinst und inwiefern dieses "matrixhaft" die Aktivitäten der Menschen mit einbezieht? Meinst Du das breitere Auftreten von ersten Strukturen wie RDFa und solche Fälle, wie Web-Veranstaltungsplaner, die solche Daten generieren, während die Nutzer nichts davon ahnen?
 
Schade, dass sich an diesem spannenden Diskurs bislang kein Google-Repräsentant beteiligt. Das wäre doch eine Angelegenheit etwa für +Stefan Keuchel
 
Wie ich gerade durch diesen Beitrag http://www.economist.com/blogs/johnson/2011/07/journalistic-language sehe, gibt es weitere Nebenwirkungen oder Kollateralgewinne, die sich aus dem Google-Geschäftsmodell und dem großen Datenspeicher ableiten lassen. Ihre Finanzabteilung braucht bloß die sprachliche Verarmung des Mainstream-Journalismus mit den Börsenzyklen abzugleichen - und könnte eines Tages für die Internetökonomie das alte Siemens-Modell wiederbeleben, dieses Mal nicht als Bank mit angeschlossener Elektroabteilung, sondern als der fetteste krisenresistente Investor mit den smartesten Programmierern.
 
@Gunnar Sohn - Jan Assmann: das kulturelle Gedächtnis, Boris Groys: über das Neue.
 
+Christoph Kappes wenn ich mal zeit zum nachdenken habe, versuche ich zu antworten. aber ich meine das recht banal: diese kambrische explosion von web 2.0 services seit flickr und delicious und blogs der 2. generation, wo tags und links und soziale verbindungen und meta-microcontent in allen möglichen formaten usw. eine semantische suppe erzeugten, die genau an der schnittstelle von user-zugewandtem code und den der matrix zuarbeitenden user-slave-ants entstand und am brodeln gehalten wird. das twitterversum war dann sowas wie der hochkonzentrierte laborversuch dazu. und ja, es gibt schon leute, die mit RDF in diesem lower case semantic web-sinn experimentieren wie etwa +Christian Langreiter und +Danny Ayers, aber davon verstehe ich auch nicht genug. vor allem auch +Saurier Duval müsste dazu viel mehr als ich sagen können.
 
+Christoph Kappes Wenn ich mir die Diskussion betrachte, ergab sich wie immer im Leben die Schwierigkeit, die verschieden Wissens-/Verständnis- und Assoziationswelten der Diskutanten soweit anzunähern, dass ein gemeinsames Verständnis erzielt werden konnte/sollte. Somit sei Dank für die Zusammenfassung gestattet, auch wenn diese nur eine Perspektive beleuchtet, die aber von den meisten Lesern unterschrieben wird.

An Punkt 5 möchte ich etwas widersprechen. Wenn man den Beiträgen von +Jörg Wittkewitz aufmerksam gefolgt ist, darf man feststellen, dass die Wirklichkeit der software-technischen Möglichkeiten den "Ängsten" in keinster Weise gerecht wird. Ich spiele mal kurz Koch-Mehrin weil ich zu faul bin: Irgend jemand schrieb ungefähr: Ausser ein paar Mitteln zur Verkaufsförderung ist nicht viel dabei herausgekommen.

Es gibt auch in DL Institutionen, die nicht hinter dem Mond leben und die die neuesten Erkenntnisse der Kognitionswissenschaften etc. ausreichen rezipiert, überprüft und wenn möglich angewendet haben: DKFI, IWM/KMRC, ... Mein Wissensstand: Die Grenzen liegen (verkürzt) im noch mangelnden Verständnis des menschlichen Denkens/Handelns und der damit fehlerhalften Abbildung in der Software.

@All: Aber ich kann dies auch "beweisen": Wenn wir davon ausgehen, dass die Google Labs zusammenarbeiten und somit auf dem letzten Stand der Technik bezüglich "Wissensverarbeitung" etc. sind, dann kann ich davon ausgehen, dass auch das Googleprodukt Translate alle diese Techniken beherrscht.

Nehmen sie diesen Thread und lassen sie ihn von Google ins Englische übersetzen. Und da sie in "Englisch" nicht so gut sind, nehmen sie den englischen Text und lassen sie ihn wieder ins Deutsche übersetzen. Und dann bitte laut vorlesen und gleichzeitig verstehen.

Und wenn sie meinen die Europäer könnten dies besser, dann nehmen sie Systran/Babelfish, dass seit über 30 Jahren gefördert wurde und machen denselben Test noch einmal.

Sie bekommen hier den fassbaren Beleg, welche Gedanken software-technisch verstanden wurden und welche nicht.

Bei diesen Ergebnissen habe ich keine Angst, dass jemand mein Unterbewußtsein gezielt manipuliert (außer natürlich den Einflüssen, die mich schon immer gelenkt haben.)

PS Dies ist kein Kulturpessismismus.
 
Fairerweise hier noch die menschenfreundliche Version, in den Worten von Eric Schmidt. So they predict, where you are going to go, auch wenns man selbst noch gar nicht weiss:
"It was so fun to get lost, to wander around! The only way to get lost now is to turn off your phone. The reality is the phones know where you are already because of emergency services. And furthermore, there is research that suggests that even if we (the computer scientists) know a little more about you, we can sort of predict where you’re going to go. Again, with your permission. So what could you do with that? Say I’m a history buff, and when I walk down the streets of Berlin, my phone can tell me about the history of the area. What else?Well, it knows a lot about me, with my permission, and with the permission of others, it could introduce me to people that I don’t know in Berlin. That might be scary. See who it comes up with! My point is that all of a sudden, it’s doing some things that I can’t do because of the knowledge that it has and the things that I’ve enabled."
 
Ein ähnliches Szenario hat der Informatik-Professor Herman Maurer von der TU-Graz schon vor einigen Jahren prognostiziert: "Alle Menschen werden jederzeit und an jedem Ort auf alles Wissen der Menschheit zugreifen können, ähnlich wie wir das heute bei materiellen Gütern können. Dieser Zugriff wird mit Geräten erfolgen, die stark mit den Menschen integriert sind, und wird sich auf Wissen beziehen das entweder aus Datenbanken kommt oder aus Dialogen mit Experten entsteht. Das Gehirn des Einzelmenschen wird nur noch ein vergleichsweise winziger Bestandteil eines gewaltigen Wissensvorrates sein, der durch die Vernetzung aus Milliarden von Menschenhirnen und Datenbanken entsteht."

Skeptiker, die vor einer nicht beherrschbaren Informationsüberflutung warnen, werden bald verstummen: „Am Horizont zeichnet sich bereits ab, dass die Informationslawine allmählich gebändigt und strukturiert werden wird zu sinnvollen, verlässlichen und auf die Person maßgeschneiderte Wissenseinheiten. Das wird geschehen über die stärkere Verwendung von Metadaten, von intelligenten Agenten, von vertikalen Suchmaschinen, wo Fachleute Informationen gefiltert und kombiniert haben, von Gigaportalen für die verschiedensten Anwendungsbereiche, von aktiven Dokumenten, die von sich aus antworten geben können“, so Maurer.

Bei der Wissensvernetzung und dem Wissensmanagement sei es erforderlicht, Wissen jederzeit und an jedem Ort verfügbar zu machen. Er habe schon vor vielen Jahren den allgegenwärtigen Computer vorhergesagt: nicht viel größer als eine Kreditkarte, weitaus mächtiger als die heutigen schnellsten Computer, mit hoher Übertragsgeschwindigkeit an weltweite Computernetze mit allen ihren Informationen und Diensten angehängt, in sich vereinigend die Eigenschaften eines Computers, eines Bildtelefons, eines Radio- und Fernsehgerätes, eines Video- und Fotoapparates, eines Global Positioning Systems (GPS), einsetzbar und unverzichtbar als Zahlungsmittel, notwendig als Führer in fremden Gegenden und Städten, unentbehrlich als Auskunfts- , Buchungs- und Kommunikationsgerät. Die allgegenwärtigen Computer werden stärker mit dem Menschen selbst verbunden. „Die Miniaturisierung von sehr mächtigen Computern wird so weit gehen, dass man sie in das Loch in einem Zahn wird einpflanzen können“, so der Ausblick von Maurer.
 
Ich bin doch ein wenig überrascht über die verkürzende Einbindung von Deb Roys Forschungsergebnissen. Er liest ja nicht nur aus, wie bei seinem Sohn aus dem Wort "agaaa" das Wort "water" wird, sondern stellt daraufhin konsequent Fragen hinsichtlich Raum, interpersoneller Aktion u.a., die sich erst durch eine so umfangreiche Datenlage beantworten lassen. Sicherlich kann man einwenden, dass bereits weniger datenreiche empirische Untersuchungen die offensichtlich intuitiv im Menschen angelegten Lern-/Erziehungsmechanismen bestätigt haben. Tomasellos Forschungen zur "geteilten Intentionalität" zeigen den Weg.
Ebenso ist es sicher kein Zufall, dass die doch recht junge Sektion "Soziologische Netzwerkforschung" der Deutschen Gesellschaft für Soziologie ( http://www.soziologie.de/index.php?id=424 ) den Forschungsschwerpunkt vom Subjekt zur Beziehung verschiebt - und so, still und leise, einen Brückenschlag zu Fragen der digitalen Gesellschaft macht.

Europa antwortet auf die aufstrebende Wesen der Netzwerkgesellschaft eben mit vielen kleinen Forschungsansätzen, statt gleich mit machtvollem wirtschaftlichem Dominanzstreben einen Megakonzern zu basteln, der diese Abermilliarden Beziehungen für Gesellschaft und wirtschaftlichen Gewinn auswertet.
Konsequenz bei beiden Methoden ist eine, wenn auch im Detail unterschiedliche Intransparenz. Die einen ziehen eben irgendwo den Strich zwischen Firmengeheimnis und Kundenorientierung, die anderen verhädern sich im wissenschaftlich-zivilgesellschaftlichen Kleinklein und bekommen so keinen umfassenden Austausch hin.

Wir können uns also weiterhin gemütlich gegenseitig ein wenig mit unseren Standpunkten andissen oder die grundlegende Frage stellen, welchen Werten wir unser Handeln unterstellen wollen UND dann aber auch konsequent danach verfahren. Ich freue mich sehr, dass es eine immer größer werdende Gruppe in Deutschland gibt, die sich der kulturellen Herausforderung des Webs und der digitalen Netzwerkgesellschaft kritisch-progressiv stellen will.
Es freut mich auch, dass dies geschieht ohne gleich alt-ideologische Trennlinien zwischen Staat-Wirtschaft-Zivilgesellschaft zu ziehen. Sicherlich braucht es einer Diskussion über die Legitimität des Handelns, aber das ist eben keine Nerdfrage, sondern eine grundlegend politische Frage. Vielleicht sogar DIE Frage für eine multipolare multi-stakeholder network-society, aber sie beantwortet sich nicht aus der Analyse des technisch Möglichen und Geschehenden, sondern aus dem politisch-gesellschaftlich Getragenen.

Technologische Schreckgespenster erzeugen nur Angst-Starre, reflexartige Abwehr und geistige Verweigerung. Vielleicht macht man damit Quote, vielleicht rettet man damit durch ihre vom Kulturpessimismus getränkenden Deutschartigkeit auch das ein oder andere Medienprodukt über den Tag hinaus - aber so sollte die Debatte nicht geführt werden, denn sie ändert nichts und ist nur aufmerksamkeitsheischend.

Es geht anders und es wird auch anders diskutiert werden in Zukunft. Dafür stehe ich mit all meinen Bestrebungen. Auf den hauptverantwortlich von Paul Klimbel, Verwaltungsdirektor der Stiftung Deutsche Kinemathek, initiierten Kongress zum Kulturellen Erbe und seiner Vermittlung im digitalen Zeitalter mit dem (Arbeits-)Titel "Anfangen, Scheitern, Zusammen-Fügen" im November sei explizit in dieser Runde vorab hingewiesen. Ebenso auf Sander-Beuermanns Replik auf Schirrmacher "Wir, die Bananenrepublik des Informationszeitalters": http://blog.suma-ev.de/content/wir-brauchen-eine-europ%C3%A4ische-suchmaschine-antwort-frank-schirrmacher
 
Herr Dr. +Frank Schirrmacher Gibt das Zitat das wirklich her? Schmidt sagt, dass Google Aussagen über die Wahrscheinlichkeiten des Eintretens von Sachverhalten machen kann, zB wohin man gehen wird. Das ist doch aber das, was Schmidt überall sagt (vgl. http://www.wasmitmedien.de/2011/01/30/eric-schmidt-auf-der-dld-2011/) und was auch dem entspricht, was wir kennen. Im einfachsten und bekanntesten Fall schlägt mir Amazon ein bestimmtes Buch vor, weil es zuvor eine Vorhersage meines (wahrscheinlichen) Kaufwunsches entwickelt hat.
+Hajo Dezelski Ich bin auch nicht sehr zuversichtlich, was technisch geht, zumal ich Anfang der 90er zu KI geforscht habe und am Ende den Eindruck hatte, dass wir es mit prinzipiellen Hindernissen maschinellen Verstehens zu tun haben, schon die Unschärfe von Begriffen macht grosse Probleme im Knowledge Engineering, etwa wenn man grössere Ontologien baut oder zusammenführt. Ich bin aber nicht mehr auf dem aktuellen Stand und daher vorsichtig, da müsste mal jemand zB aus dem Umfeld des DFKI was berichten. Was Old Economy angeht, habe ich persönlich erlebt, wie wir sämtliche Daten über Kundeneinkommen von Europas grösstem Versicherer nicht benutzt haben, weil die Daten veraltet und semantisch unklar waren... So weit meine Praxis ;-)
 
PS: Sorry für den späten Beitritt zur dieser Diskussion, aber ich entdecke erst langsam dieses Google Plus und seine, ggf. dem aktuell noch nerdigen und überschaubaren Nutzerkreis geschuldete hohe Qualität einzelner Diskussion. Hingewiesen hat mich übrigens +Tina Pickhardt , die wohl jetzt irgendwo im Zug sitzt und hier hoffentlich auch noch was sagen wird. ;)
 
+Jens Best Die Replik von Sander-Beuermann ist nicht ganz widerspruchsfrei. Er eröffnet mit dem Satz, der Artikel von Schirrmacher käme sieben Jahre zu spät, und endet mit "Lassen Sie uns gemeinsam an diesem Ziel arbeiten!". Das hört sich eher wie eine sieben Jahre lang nicht verarbeitete Kränkung an.
Schlage vor, wir gehen wieder zum abstrakten Ausgangsthema zurück und lassen ausser Betracht, was Eric Schmidt gesagt hat und wie desolat die deutsche Technologielandschaft aussieht. Die Ausgangsfragen betrafen ja assoziatives Erinnern, Ersetzen statt Auslagern, soziales Wissen.
 
ad Kappes: Es wird jetzt wirklich etwas unübersichtlich. Nochmal mit anderen Worten.
1. Google wird also wissen wohin wir gehen, auch wenn wir es selbst nicht wissen. Ich muss Ihnen nicht sagen, das dieses "gehen" eine reine Metapher für den Willen ist.
2. Dazu muss Google uns gut kennen und uns mit allen möglichen anderen Menschen vergleichen können.
3. Indem ich das - Gunnar Sohn: exakt! - in der Tat nun zur Verfügung gestellte (Welt) Wissen über mein Ziel nutze und Google mir das Ziel (den Menschen, die Bekanntschaft, den Einkauf, die Assoziazion) nennt, erfahre ich etwas über etwas das aus dem Fundus allen Wissens geschöpft wird. Toll! Tue ich immer häufiger.
4. Ich erfahre aber nicht, das in der vernetzten Welt eigentlich Relevante - weil nämlich künftig d a r a u s, - nicht mehr aus dem Wissen - die Macht kommt - : wie die AI von Google mich las.Ich kenne das Ergebnis, aber nicht die Heuristik.


(Beispiel: Nicht der Lebenslauf - die Vergangenheit, das Wissen - interessiert den Personalchef von IBM USA sondern die algorithmischen Vernetzungen dieser Daten plus gezielter, ebenfalls auf Musterbildung abgestimmter Fragen mit unzähligen anderen Mitarbeiten, die es ihm ermöglichen eine, wie er meint, glasklare Aussage über den Wert dieses Mitarbeiters in 25 Jahren zu geben - siehe Baker in der Business Week)
5.Je besser Google (apple whatever) wird und je nativer die Gesamtgesellschaft, die die googlelose Zeit nicht mehr kennt, desto brüchiger, weil unnötiger wird das Konzept meines freien Willens. Den hat der Kreditsachbearbeiter heute schon nicht und der Personalchef bald auch nicht mehr.


6. Kuhn hat gezeigt, dass Paradigmenwechsel, die von technologischen Innovationen ausgelöst werden, immer zu einer Revolution der Hilfswissenschaften führen. Mir kommt es vor, als ob sich ein Puzzle zusammensetzt, ein Weltbildwandel in the making. Ich verweise nochmal auf John Bargh und seine Kontroverse um den freien Willen, den er ebenso verneint, wie die Teile der deutschen Hirnforschung. "The will is caused not free" ist im Grunde die Psychologie des Google-Zeitalters.
http://www.psychologytoday.com/blog/the-natural-unconscious/200906/the-will-is-caused-not-free.


7. Ich werde mir also weiterhin Bücher, Musik und Freunde empfehlen lassen, womöglich eines Tages Mitarbeiter und Mitarbeiterinnen, wie es das IBM jetzt schon tut. Es lässt sich nicht aufhalten. Aber um die totale Verwechslung meines autonomen, von Assoziationen und Erinnerungen geprägten Bewusstseins mit dem Netz der Zukunft zu vermeiden, gibt einen sehr einfachen Ausweg, den wir in allen anderen Bereichen auch zu Recht immer fordern: wie kommst Du zu Deinen Schlüssen? Wie liest Du mich? Warum soll ich jetzt, laut meinem Googlemail Account ein Buch von Jeff Jarvis kaufen (na ja, den Algorithmus versteh auch ich noch)? Das ist eine ganze einfache, geradezu klassische Machtfrage, die schon ganze Religionen erschüttert hat. Da Google das niemals freiwillig tun wird, die Idee eine Konkurrenz aufzubauen. Wahrscheinlich hat Google aber längst vorausgesehen, das die nette Spinnerei in seinen unendlichen Bibliotheken unter Apokryphen eingeordnet werden wird.
 
ad Jens Best: der soziologische Hinweis ist mir neu und sehr interessant. zu Roy: mir ging es in der Tat nur um das Faktum der Aufzeichnung selbst.
 
Klingt etwas als ob hier Google mit Wikipedia verwechselt wurde und die Funktionsweise einer Suchmaschine, SEO und was daran hängt nur halb verstanden wurde.

Für die Diskussion grundlegend ist eher, ob die Link-Relationen, also der user-generierte-content, den google sich einverleibt und unsere arbeit zu geld macht, wirklich relevantes wissen ist. Klar, die ergebnissse einer Suchmaschiene verbessert es. Aber es ist nicht weg, wenn google sich löscht. jeder kann den Page rank einer seite und die relevanz anhand der links jederzeit neu berechnen.

Und brauchen wir eine eropäische suchmaschine, ja, wenn wir immernoch in kategorien der nationalen autarkie denken, dann schon. Also nein, weil die grenze dieses Lebensraums ist die stratosphäre, keine linien auf papier.
 
Ich bin zu 1) "Ich muss Ihnen nicht sagen, das dieses "gehen" eine reine Metapher für den Willen ist." etwas ratlos, aber weder Psychologie noch Philosoph, um dazu etwas qualifiziertes sagen zu können. Für mich gibt es nur zwei Möglichkeiten:
- Entweder bin ich eine deterministische Maschine, dann könnten Beobachter von aussen exakte Vorhersagen über mein künftiges Handeln machen, wenn sie die Regeln meines Handelns abbilden können. Dann verliere ich die ohnehin falsche Vorstellung eines freien Willens.
- Oder ich bin keine deterministische Maschine, dann reicht das Wissen eines externen Beobachters nur bis an das Jetzt heran (minus der Zeit seiner Verarbeitung, daher "heran"), nie aber exakt bis zum jetzigen Zeitpunkt und nie in die Zukunft. Was dieser Beobachter also macht, sind Prognosen über mein künfitges Handeln, die ex post richtig oder falsch sein können und zum Zeitpunkt der Prognose mehr oder weniger wahrscheinlich sind. Diese Prognosen zu durchkreuzen, ist eine Möglichkeit meines freien Willens.
Aber jetzt müssten mal andere ran, sowas kann man ja studiert haben und das ist ja eine ältere Diskussion.
 
In der Tat geht es um den freien Willen? Der Wille ist unser Gestell, um eine Kausalität zwischen Verhalten und Erste-Person-Perspektive zu errichten an der beide Konzepte vereinbar sind. Seit Libets Experimenten vor 20 Jahren ist offenbar, dass das Bereitschaftspotenzial zu einer Handlung jedoch vor der Entscheidung schon vorhanden ist. Wir also unbewusst entscheiden. Google will exakt diese Sphäre der Disposition in seinen Mustern abbilden. Sie sind prärational. Google erfährt über uns jedoch nur codifizierte Aktivitäten wie eben Schreiben und Lesen und verknüpfen von Texten. Sie können genausowenig unsere Motive kalkulieren wie die neuronalen Korrelate unsere Gedanken begründen. Es gibt wahrscheinlich eine funktionale Erklärung und diesen Funktionalismus den kann Google gut formalisieren, aber eben nur linear. Wir handeln aber nicht linear.
 
Es gibt keinen "Gesellschaftsvertrag" mit Google. Google erwirbt etwas ohne Vertrag und Übereinkommen. Normen der Gerechtigkeit, von Äquivalenz und von Leistung und Gegenleistung muss es auch hier geben. Ist nicht jede Suchanfrage zugleich ein Vertrag bzw. findet innerhalb eines Vertrages und eines Rechtsrahmens statt? Es wäre auch möglich, Suchanfragen an Google über eine dritte Stelle laufen zu lassen, die etwa von einer Stiftung oder Genossenschaft getragen wird, die sich selbst bestimmten Grundsätzen verpflichtet. So könnte ein Teil des Nutzerwissens frei zugänglich gemacht werden.

Wissen kann als Information+Urteil gelten. Seit jeher ist das Fragen ist schwieriger als zu antworten. Google "antwortet" und eignet sich ferner Urteile an durch vielfältigste Auswertung. Es ist im besonderen ein (Bescheid)Wissen, ein Vorabwissen über Menschen, welches bei Google wie vom Meer angeschwemmt wird durch die Surfenden. Irgendwann ist es feiner Sand, durch Reinigung entsteht sowas wie das Element Datengold. Es ist vermutlich ein Goldrausch eigener Art, der sich in Kalifornien ereignet. Da geht es nicht nur um Traffic und Werbeeinnahmen.
 
Mich wundert bei dieser sehr ansprechenden und sehr anspruchsvollen Debatte, dass niemand Denkfiguren aus SF-Romanen anführt. Lest Ihr das nicht, ist das unter Niveau? Asimov oder hier passend die Neuromancer-Trilogie von William Gibson? Es ist doch Sommer, also lesen: http://de.wikipedia.org/wiki/Neuromancer
Was hat das mit dem Thema zu tun? Die Frage, was Google weiß, zerfällt in mehrere Teilfragen: Was können Menschen, die Einblick in die von Google gesammelten Daten haben, aus diesen Daten herausfiltern. Was können Programmierer programmieren, um die Suche des Google-Computers bzw. der Google-Intelligenz nach menschlichem Verhalten und dessen Vorhersagbarkeit zu verbessern? Und dann sind wir schon bei der SF-Komponente: Wann könnte eine Google-Intelligenz ein Eigenleben entwickeln?
Abgesehen von dieser SF-Komponente ist die Frage, wer kann Google kontrolieren oder tut das bereits? Obwohl das auch in vielen SF-Romanen Kern des Plots ist.
 
Und wo wir gerade bei SF-Romanen sind .. kann ich als Sekundärliteratur neben den Spätwerken von William Gibson (die leider nur noch mäßig unterhaltsam sind) wärmstens die Singularity-Novellen von Vernor Vinge empfehlen, insbesondere Marooned in Real Time, die Kurzgeschichtensammlung Collected Stories und eventuell Rainbows End.

Ein Thema von Vinge ist immer wieder Intelligence Augmentation (statt Artificial Intelligence). Diese Intelligence Augmentation findet statt durch Verlagerung von Erinnerung - aber auch kognitiver Verarbeitungsprozesse - in digitale Systeme. Ich halte das nicht für unplausibel und denke, dass wir mit den hier diskutierten Phänomenen die ersten Schritte in diese Richtung erleben. Das sehe ich zunächst wertfrei. Maschinen haben zunächst unsere körperlichen Fähigkeiten "augmentiert". Warum sollte das nicht mit den intellektuellen Fähigkeiten auch geschehen.

Was Vinge kaum thematisiert hat - weil seine Ideen vor dem Zeitalter des Internets entstanden sind - sind die Konsequenzen der Verlagerung dieser Aufgabe in zentrale Systeme unter Kontrolle durch Dritte. Tatsächlich ergeben sich dadurch neue Potentiale aber genauso auch neue Risiken. Das wird ansatzweise übrigens in Rainbows End thematisiert, das nach dem Siegeszug des Internet entstanden ist.

Lektüre solcher Werke ist meiner Ansicht eine schöne Auflockerungsübung, wenn man des Studiums geisteswissenschaftlicher Grundlagenwerke müde wird und sich vorübergehend von "Was wäre wenn ..." Szenarien zum eigenen Denken inspirieren lassen möchte.

smiles
 
Diskussion, wie sie sein soll.
Aber kurz zum Thema. Die Bedenken gegenüber der Vergesslichkeit von gesicherten Daten hatte ja schon zu Zeiten des Mobiltelefons angefangen, in der das Telefon der Speicher für Telefonnummern geworden ist. Und Bücher und Geschriebenes wurde ja bereits zitiert.

Was man in dem Zusammenhang aber auch sehen sollte, ist die Vision von Larry Page. Eines seiner großen visionären Projekte ist eine AI, also Artificial Intelligence. Google hat enorm viele Forschungsprojekte rund um die Daten, die zur Verfügung stehen. Google denkt auch in Daten, weil ja oben bereits mehrfach angesprochen wurde, dass Erkenntnisse aus Logdaten über Benutzer (und ich mein jetzt nicht die Serverlogs, sondern die Aufzeichnungen über unser Verhalten) nicht ohne Weiteres genutzt werden könnten. Google ist da sicherlich einen Schritt weiter.

In dem Zusammenhang: Google hat es bereits geschafft eine Rechtschreibkontrolle, eine Sprachübersetzung und Vorhersagen über Grippewellen aus Daten zu ermitteln. Die Zahl der AI Forscher und Linguistiker bei Google ist nicht zu unterschätzen und die Analyse von großen Datenmengen ist das Handwerkszeug von Google.

Was ich damit andeuten will, sind weniger die Punkte die +Frank Schirrmacher andeutet, sondern vielmehr die künftigen Entwicklungen, die möglich werden, wenn wir mehr Informationen und Daten sammeln. Wissen ist ja nochmal ein ganz anderer Punkt, da er ja auf Erkenntnis beruht, die sich aus Informationen ergeben. Den obigen Vergleich mit den Laborratten finde ich nicht ganz unzutreffend, denn wir arbeiten ja intensiv mit. Ich hatte Google+ mit einem CRM verglichen, das sich Google geschaffen hat, sich mit seinen Kunden zu beschäftigen, wobei wir freiwillig daran mitarbeiten. Nichts anderes ist die Suchmaschine Google als Ganzes. Dass Google seine Algorithmen nicht veröffentlicht ist genau der Punkt und auch die einzige Chance für eine Alternative, die bereit ist, die Algorithmen als Open Source zu veröffentlichen und damit einen Gegenpol zu schaffen.
 
Für alle +Jens Best +Frank Schirrmacher , die sich mit Soziologie und Netzwerktheorie auseinandersetzen wollen, empfehle ich die Akteur-Netzwerk-Theorie von Bruno Latour. Es gibt dazu ein schönes einführendes Buch von Andrea Belliger und David J. Krieger namens "ANThology", erschienen im transcript Verlag. Ein Hinweis, dass was im Netz gemeinhin unter Netzwerk verstanden wird und das, was die Soziologen darunter verstehen ist sehr unterschiedlich. Die Netzwerkanalyse der Soziologen gab es schon vor dem Web.
 
Ich habe ein bisschen Angst darum, dass dieser Thread hier vom Ausgangspunkt wegmäandriert, aber ich finde wie zuletzt +Siegfried Hirsch, dass wir auch die positiven Entwicklungen im Auge behalten sollten, die wir gegen die Gefahren abwägen müssen. Mein Lieblinkslink ist der Datastore vom Guardian, der zur Visualisierung massenhafter Daten ganz viele Beispiele hat, die die Phantasie anregen mögen: http://www.flickr.com/groups/guardiandatastore/pool/. Das ändert natürlich nichts an der Ausgangsfrage, was an Verhalten, sozialen Beziehungen und mentalen Modellen quasi in die Cloud externalisiert wird und ob diese Daten und die zugrundeliegenden Verfahren in die Hände von Privatunternehmen gehören bzw ob wir selbst uns dadurch ändern, und wenn ja, zum Nachteil oder Vorteil.
 
joerg. wittkewitz guter Tipp. Der transcript Verlag hat ja generell einige wichtige Bände zur digitalen Welt im Programm, etwa McLuhan neu lesen, Kultur 2.0, Neue Medien mit allen Abhandlungen der wichtigsten Netz-Gurus. Von Latour bei Suhrkamp ist auch erschienen: Eine neue Soziologie für eine neue Gesellschaft: Einführung in die Akteur-Netzwerk-Theorie
 
Die Frage, die vom Text gestellt wird, betrifft ja auch unser Weltbild, das wir (künftig) aus einer Suchmaschine bekommen, weil wir uns als Informationsspeicher darauf verlassen. Weltbilder werden aber bisher bereits in (Schul-)büchern erzeugt und dass die unterschiedlicher nicht sein könnten, kennen wir ja. Google hatte bisher immer den wissenschaftlichen Ansatz mit dem Willen
1. möglichst neutral zu sein
2. uneinnehmbar von Spammern - daher auch der Ansatz Algorithmen nicht zu veröffentlichen
3. relevanter für uns zu werden, mit den bekannten kommerziellen Hintergedanken.
Erinnerung auszulagern, war ja schon immer ein Bedürfnis der Menschen, Stichwort Tagebuch. Denn unser eigenes Speichervermögen unterliegt doch sehr stark der Veränderung. Erinnerung verblasst und wird geschönt. Digitale Erinnerung hat dagegen den Vorteil dass sie eben binär ist und nicht verblasst.

Was +Frank Schirrmacher beschreibt, ist die Angst, dass Google als eines von 3 großen Internetunternehmen in der Lage ist, die digitale Erinnerung zu verändern, bzw. derart zu manipulieren, dass wir alles nur noch durch die rosarote Sonnenbrille von Google sehen, die wir selbst mit Assoziationen anfüllen.

Mir stellt sich die Frage, ob wir Wahrheit und Meinung noch unterscheiden können bzw. wollen. Aber dazu sind wir ja nur in der Lage, wenn kritisches und hinterfragendes Denken neben der Informationsanhäufung im Netz eine Tugend ist, die wir nutzen können. Mir wurde im Deutschunterricht noch beigebracht, Nachrichten in Zeitungen, kritisch zu hinterfragen. Wer ist der Autor, wo steht er mit seinem Weltbild, welchen Einflüssen unterliegt er, wie möchte er seine Sicht der Dinge publizieren. Insofern sind die talmudschen Vergleiche sicherlich nicht neu. Die Frage ist in wieweit wird das heute noch als Grundstock geliefert oder hat im schulischen Betrieb Google schon so viel Fuß gefasst, dass die Inhalte nicht (mehr) hinterfragt werden. Die Wikipedia wird ja recht kritisch gesehen. Google als Wegweiser wird viel seltener hinterfragt, da sie als Autor nicht sichtbar ist, sondern nur als Bote der Nachricht.
 
Ich habe diese Diskussion erst heute entdeckt und nun nicht alle Kommentare gelesen. Auf die Gefahr hin, etwas zu wiederholen: Der spannendste Aspekt ist m.E. das, was Schirrmacher zwei Tage zuvor in der FAS schon "digitale Demenz" genannt hat. Wenn Denken (kreatives, assoziatives, schöpferisches) weiterhin im Kopf des Individuums stattfindet dann wird es einen Unterschied machen, ob dieses auf dem Sediment individueller Erinnerungen und Erfahrungen im eigenen Gedächtnis stattfindet oder ob ich mir dieses "Wissen" immer wieder aufs Neue aus dem Internet verfügbar machen muss.
 
Herr Hirsch, das Bisher-Hatten-Wir-Auch-Buecher-Argument sagt nichts aus, wenn die These ist a) wir haben Abhaengigkeiten von monopol-aehnlichen Gatekeepern b) nur diese haben Wissen,
was diese aus Verhaltensdaten und sozialen Beziehungen algorithmisch erzeugen und c) wir koennten eines Tages den maschinellen Vorschlag durch Dauerkonditionierung mit unserem Willen verwechseln (Versuch einer pointierten Zusammenfassung, erneuter Anlauf :-))
 
+Siegfried Hirsch "In Büchern nachschlagen" und "Googlen" ist m.E. ein prinzipieller Unterschied: Ich muss den Weg zum Buch und das Wissen, dort den gesuchten Fakt zu finden, schon im Kopf haben. Die Verbindung zwischen meinen Gedanken und dem Buchinhalt ist durch meine Erinnerung schon vorab hergestellt und wird durch das Nachschlagen erneut gefestigt. Beim Googlen "rufe ich hinaus", nehme was ich finde und habe es nur temporär verfügbar.

+Christoph Kappes Sie haben unter c) pointiert formuliert wozu ich letztens einen 40minütigen Vortrag brauchte. Bei Interesse trotzdem der Link: http://asut.ch/files/pdf1027.pdf?7892
 
+Alexander Hetzel

"Führt die Sicherheit, in der wir uns wiegen, dazu, dass unser Wissen weiter vermindert wird? Denn wenn wir uns nicht an die Inhalte eines Dokumentes -- wenigstens grob -- erinnern, dann erinnern wir uns auch nicht, ein derartiges Dokument oder Wissen jemals gehabt zu haben. Verhindert die elektronische Speicherung und insbesondere die vereinfachte Suche letztlich die Ansammlung von Wissen? Und wie wägen wir den Nutzen solcher Dienste mit dem "Verfall" des Gewussten ab?"

Diese Frage soll sich Sokrates auch schon mal gestellt haben, und ich glaube, Sie ist hinreichend widerlegt worden:

In parallel with modern concerns about children's overuse of technology, Socrates famously warned against writing because it would "create forgetfulness in the learners' souls, because they will not use their memories."

siehe http://www.slate.com/id/2244198/pagenum/all/
 
... und nun sagt +mspro (dings) drüben zu c), dass es wünschenswert ist, dass wir Pentabytes an Daten ins Netz stellen, weil uns Maschinen zu 87% simulieren werden - auch nach unserem Tod - und wir so quasi die bei +Peter Glaser im SpOn angesprochene Sehnsucht verwirklichen, den Tod zu überwinden? +Mspro, ist das so in etwa Deine Meinung dazu in einem Satz? Prima, dass Google mein soziales Verhalten prognostizieren (ggf bis zu: simulieren) kann, dann lebe (m)ein ich weiter? Oder was würdest Du F. S. "knackig" antworten?
 
Sorry, da ist mein Ausruf, der sich auf das "ob ich mir dieses Wissen immer wieder aufs Neue" bezogen hat, wohl zu schnell gewesen ;)
Kann aber auch daran liegen, dass ich nicht auschliesslich Google nutze, um auf mein Online Wissen zurückzugreifen. Ich nutze häufig dafür eben Bookmarks (in allen Ausprägungen) und habe sehr oft auch die Fundstelle im Kopf und kann daher ohne den Umweg Google meine Quelle nachschlagen.
+Christoph Kappes der Punkt c) ist tatsächlich sehr creepy. Dabei wird das Szenario durch die kommende Spracheingabe nochmals verstärkt werden, denn mobil sind wir in der Situation, dass wir eher auf die Antworten zählen, statt eine umfangreiche Recherche zu starten.
 
+Christoph Kappes das ist einer der sieben punkte. sicher ein zentraler, aber die anderen sind mir auch schon noch wichtig. mir kam es darauf an zu beschreiben, warum wir tun, was wir tun. warum es rational/sinnvoll/gut/vorteilhaft ist etc. für den einen oder anderen ist ein ewiges leben nicht erstrebenswert (wobei ich bei solchen aussagen auch immer etwas koketterie vermute). ich hoffe, dass da aber für jeden was dabei ist.
 
@kappes: T


Interessant, und ein Zeichen grosser Veränderungen, ist es immer, wenn die Revolution so sehr zur Konformität wird, dass der Sparkassenchef zum vermeintlich Progressiven und der Kritiker zum Konservativen wird.

Die Debatte wird heute so geführt, als ziele Kritik an der digitalen Moderne auf deren Abschaffung. Das ist so unglaublich öde. Vielleicht ist ja Gott durch Kritik abgeschafft worden, aber meines Wissens keine einzige technologische Neuerung. Warum tut man dann so als würde man Gott beleidigen und vom Glauben abfallen? Weil bereits partiell eingetreten ist, was Strogatz als "End of Insight" und die Google-Vordenker als das "Ende der Modelle" bezeichnen.

"In my own field of complex systems theory, Stephen Wolfram has emphasized that there are simple computer programs, known as cellular automata, whose dynamics can be so inscrutable that there's no way to predict how they'll behave; the best you can do is simulate them on the computer, sit back, and watch how they unfold. Observation replaces insight.

Mathematics becomes a spectator sport. If this is happening in mathematics, the supposed pinnacle of human reasoning, it seems likely to afflict us in science too, first in physics and later in biology and the social sciences (where we're not even sure what's true, let alone why).

When the End of Insight comes, the nature of explanation in science will change forever. We'll be stuck in an age of authoritarianism, except it'll no longer be coming from politics or religious dogma, but from science itself."

http://edge.org/q2006/q06_8.html


Statt so alte Maschinenstürmerdebatten zu führen, wäre doch nötig, was seit jeher die Aufgabe von Mitdenkern der Gesellschaft ist: wo entsteht Macht, wer hat sie, was können wir noch überprüfen? Die Google-Algorithmen jedenfalls nicht.

Die allmählich müde machende These, es hätten Menschen schon immer gegen den Fortschritt opponiert - weil Autos zu schnell seien oder Fernsehen verblöde - ist nichts anderes als eine Version von "es war immer so, es wird immer so sein". Ich finde das sehr unterkomplex und sehr reaktionär. Es gab Leute, die im 19.Jahrhundert bedauerten, das die Elektrizität und die dadurch illuminierten Städte den Menschen von organischer Zeit entferne und den Städten ihr Geheimnis nehmen. Ein paar Jahrzehnte später klingt das dann so: "Kommunismus ist Sowjetmacht plus Elektrifizierung" (geht auch mit Kapitalismus und sehr gut mit Henry Ford).

Journalistisch gesprochen interessiert mich nur der Satz, den wir finden werden, also unsere Ideologie. Ich glaube der entsteht gerade, aber so sehr wir uns hier auch abmühen, nicht als Ergebnis eines partizipativen Diskurses, sondern als reine Machtfrage.
 
Wenn hier die Frage aufgeworfen wird "Wo Macht entsteht" dann muss man doch zuerst einmal prüfen ob dabei nicht eine Verschiebung der Bedeutung des Begriffs "Macht" vorgenommen wird. Macht ist die Fähigkeit, andere zur Erfüllung des eigenen Willens (zur Erreichung eigener Ziele) zum Handeln zu bewegen. Vorausgesetzt wird also erst einmal ein Subjekt der Macht, dass etwas Will, das ein Ziel hat. Außerdem besagt dieser Begriff von Macht, dass die Beeinflussung der anderen so erfolgt, dass sie zum Handeln gebracht werden, und zwar zu einem Handeln, dass der Erfüllung der Ziele des mächtigen Subjektes dient. Wenn hier also von Macht gesprochen wird: Wer ist das mächtige Subjekt? Google? Larry Page? Was ist dessen Ziel, was will das Subjekt? Und schließlich (und entscheidend): Welches Handeln derer, die der Macht unterworfen werden, trägt zur Erfüllung der Ziele des Subjektes bei? Ich glaube, dass man diese Fragen nur auf einem sehr abstrakten Niveau konsistent beantworten kann.
 
+Frank Schirrmacher : Machtkritik und Ideologiekritik ist ein nötiges und ehrenwertes Geschäft. Und auch Fortschrittsskeptizismus ist nützlich, wenn er Erkenntnisse fördert und nicht den Blick verstellt. Da ist alles nicht das (mein) Problem. Sondern: Google hat Macht über das ökonomische Handeln der Menschen, kein Zweifel, aber m.E. nicht annähernd die numinose epistemische Macht, die Sie [ihm?ihr?] zuschreiben.

Ihre epistemologische Kritik an der Externalisierung des Wissens, die Sie kurzschlüssig an Google festmachen, ist dabei selbst natürlich sehr interessant, wenn man sie ins Grundsätzliche zieht.

Da wiederum würde ich einwenden, dass es zuerst nötig wäre herauszufinden, in welchen "Welten aus Zeichen" das emanzipierte Subjekt mit dem freien Willen, das Sie beschwören, denn operiert hat und eigentlich nur möglich war. Als Literaturhistoriker gesagt: Die Zeichenwelten der bürgerlichen Schrift-Kultur des 19. und 20. Jahrhunderts hatten ihre eigenen Semiose-Strukturen (quasi: "Algorithmen"), und mein Denken und Wünschen war im untergegangenen Feuiileton-Zeitalter ganz sicher nicht "freier", als es heute in der Google Galaxie ist.
 
+Martin Lindner "Google hat Macht über das ökonomische Handeln der Menschen" Kein Zweifel? Genau solche Formulierungen meine ich, sie verschieben und verwässern den Begriff "Macht".
 
+Jörg Friedrich Hm, ja, das ist natürlich ein sehr verwaschener Macht-Begriff, und es ist richtig, ihn zu hinterfragen. Im Zusammenhang der Argumentation wollte ich das einfach mal nur pauschal einräumen, um mich auf den anderen, epistemologischen Aspekt konzentrieren zu können.
 
+Martin Lindner Das epistemologische Problem ist in meinen Augen jedoch zunächst kein Problem der Freiheit, sondern der Fähigkeit. Die Frage ist: kann ich noch im gleichen Sinne selbständig denken, wenn ich dabei ständig auf die Verfügbarkeit externer Quellen angewiesen bin und nicht auf dem Sediment meines eigenen Gedächtnisses bauen kann?
 
+Jörg Friedrich kurz gesagt: das war noch nie anders. diese selbständigkeit hat es nie gegeben. "das gedächtnis" (bereits das substantiv ist irreführend) ist gar kein "schatz", sondern eine dynamische struktur, funktion von laufenden zeichenprozessen.
 
So, last orders, please - Kommunikation findet sicher Anschlusskommunikation & es gibt viele Blogs + soziale Netzwerke & das Internet hat ja noch länger auf ;-)
 
So, nun ist hier CLOSED.

Vielen, vielen Dank an alle Diskutanten, virale Distributanten und Passanten für die Mitwirkung. Es ist wunderbar zu sehen, wie online öffentliche Diskussionen entstehen können, die zwar kontrovers, aber auf durchweg gutem Niveau sind (ich weiss, klingt arrogant, aber einer muss es ja sagen). Das finde ich sehr ermutigend.

Ganz besonderer Dank auch an Dr. Schirrmacher, weil er sich die Zeit genommen hat, hier mit uns zu diskutieren und damit eine Haltung bewiesen hat, die man sich als Publikum von Medien und Politik sonst nur wünschen kann.

Es wird spannend zu sehen, wie sich die Diskussion weiter entwickeln wird, denn was wir vorfanden, ist eine Gemengelage, die man aus unterschiedlichen Perspektiven betrachten kann. Man kann diese Lage nicht mit Aussagen beschreiben, die "richtig" oder "falsch" sind, weil es erstens um Sachverhalte in der Zukunft geht, die zweitens eine wichtige politische Dimension haben und die drittens solange als ungeklärt gelten können (!), wie die Knowhowträger schweigen, sofern sie denn jenes Knowhow haben, das sie gelegentlich andere glauben machen.