»Wie finden wir uns?«
Mehr zufällig als geplant hatte ich die Gelegenheit am ersten ExpertFinder-Workshop in Berlin teilzunehmen. Dabei ging es um interessante Fragen, die uns auch hier umtreiben: »Wie finde ich, wen oder was ich suche? Und wie werde ich gefunden?« Hier nun also ein kurzer Bericht vom Workshop.
Die Lösung für solche Fragen ist das semantische Web, dachte man. Das internationale Standardisierungsgremium W3C versucht sich schon eine Weile an der Definition einer Infrastruktur, aber irgendwie kommt das semantische Internet nicht aus dem Knick. Warum? Das liegt in der Natur der Semantik, würde ich sagen.
Kleiner erkenntnistheoretischer Ausflug
Semantik bedeutet Bedeutung. Es geht um die Bedeutungen der Welt, die die Menschheit hergestellt oder als Vorgefundenes in ihre Lebenspraxis bedeutungsvoll integriert hat. Diese Welt-Bedeutungen lassen sich nicht formal definieren, weil sie – sobald man sie von unser Lebenspraxis trennt – tot sind. Alle, die sich nun mit Semantik theoretisch oder praktisch vergnügen, machen nun genau das: Sie fixieren Bedeutungen in einer abgeschlossenen »Blockwelt« mit definierten Syntax–Semantik-Beziehungen. In solchen Miniwelten kann man nun formal (syntaktisch) mit bedeutungsvollen (semantischen) Einheiten umgehen, etwa maschinell lesen und verarbeiten. Nehmen wir als Beispiel eine »Miniwelt mit Hausnummern«, wer HTML ein wenig kennt, kann das gut lesen:
…
<hausnummer>42</hausnummer>
…
Das Problem bei solchen Miniwelten ist, dass die Semantik eigentlich nur außerhalb der Miniwelt verstehbar ist, nämlich in unserer Lebenspraxis. Es gibt also eine quasi undefinierte (weil undefinierbare) Referenz nach „außen“. Wenn in der Miniwelt zum Beispiel steht: „42“, dann funktioniert das nur, weil wir wissen, was Häuser sind, was Nummern sind und dass es (hierzulande) üblich ist, Häusern Nummern zu verpassen, um sie besser finden zu können etc. Innerhalb der Miniwelt sind beides – „hausnummer“ und „42“ – nur Zeichen. Solange wir wissen, wir wir solche Miniwelten zu benutzen haben, ist das alles kein Problem. Wir tun dies ohne dauernd. Schwierig wird es, wenn mehrere Miniwelten aufeinander treffen: Sehr häufig passen die Semantiken nicht zueinander, weil sich die impliziten Verweise in unsere Lebenspraxis nicht decken.
Damit sind wir beim Grundproblem: Im semantischen Web lassen sich beliebig viele »informatische Ontologien« definieren, die jeweils ein eigenes Vokabular verwenden und in einer bestimmten Domäne funktionieren, aber untereinander oft nicht kompatibel sind. Nehmen wir an, in einer bestimmten Lebenspraxis werden Wohnorte nicht über Hausnummern, sondern über Landschaftsmarken (früher üblich) gefunden. Dann taugt die Miniwelt mit der formal definierten Hausnummer nicht mehr. Hinzu kommt ein zweites Grundproblem, das ich aber nicht so hoch hängen will: Die Selbstreferenzialität. Welche Ontologie enthält denn die definierten Ontologien, also sich selbst?
Ganz allgemein gesagt haben wir es mit einem Semantik-Paradoxon zu tun: Das platte World Wide Web ist ein großer Haufen Zeichenmüll, der nur mit Brute-Force (aka Google) handhabbar ist. Viel cleverer wäre es, wenn das WWW kapiert, was ich will. Es müsste also „semantisch“ funktionieren. Das WWW als Abbildung (eines Ausschnitts) der Lebenspraxis ist nun aufgrund des oben beschriebenen Problems grundsätzlich nicht vollständig semantisch definierbar. Es gibt keine Welt-Ontologie. Oder anders gesagt: Es gibt nur eine Welt-Ontologie, und das ist unsere Lebenspraxis.
Nun ja, das ist nicht so schlimm und für manchen vielleicht auch tröstlich. Es wäre ja trotzdem schon viel gewonnen, wenn wir in einigen Bereichen ein paar Miniwelten zur Verfügung hätten, auf den wir operieren könnten. Wir müssten uns nur entspannen und von der Vorstellung Abschied nehmen, man könnte die Welt »repräsentieren«. Es wäre ja schon ganz schick, wenn Miniwelten unser Werkzeug sein würden und wir also die Syntax-Semantik-Beziehungen genauso ansehen: Was wäre wirklich nützlich für uns? Statt: Wie bilden wir die Welt ab? Pragmatisch geht die Reise ohnehin genau in diese Richtung. Nun also zum Workshop.
Chaos der Ontologien
Auf dem ExpertFinder-Workshop spielten drei Ontologie-Beschreibungssysteme (aka: Miniwelten) eine Rolle:
- FOAF (»Friend Of A Friend«, gesprochen in einem Wort analog „loaf“) ist ein Format zur Beschreibung von Personen. Wichtigstes Feld ist „knows“, was auf andere Personen verweist. So lassen sich Bekanntschaftsnetzwerke nutzbar (surfbar, grafisch darstellbar etc.). Vergleichbar ist FOAF mit vCard, was wohl (fast) alle E-Mailprogramme nutzen.
- SIOC (»Semantically Interlinked Online Communities«, gesprochen wie „Schock“) ist ein Format zur Erfassung von Online-Diskussionen in Blogs, Foren oder Mailinglisten. SIOC lässt sich gut mit FOAF verbinden.
- SKOS (»Simple Knowledge Organisation System«, gesprochen wie geschrieben: „Skoss“) ist eine W3C-Spezifikation zur Darstellung hierarchischer Informationsstrukturen, Thesauri, Taxonomien etc.
Mit hinzunehmen würde ich auch noch:
- DOAP (»Description Of A Project«, gesprochen wie „dope“) ist ein Format zur Beschreibung von Freien Softwareprojekten. Genutzt wird DOAP von Software-Registern wie CodeZoo, SWIK, CheeseShop etc.
Das Problem aller dieser Formate ist ihre zu geringe Verbreitung. Ein „Henne-und-Ei-Problem“: Es nutzen noch nicht viele, so dass die eigene Beteiligung Nutzen verspricht; ein höherer Nutzen erfordert die Beteiligung von mehr Nutzern. Kurz: Die kritische Masse ist nicht da. Ähnlich bei den Anwendungen: Es gibt viel wenig, weil sie zu wenig nachgefragt werden und vice versa.
Gleichzeitig existieren zum Beispiel neben FOAF mit der vCard Formate, die durchaus intensiv benutzt werden. Allerdings sind diese ähnlichen Formate nicht ohne weiteres ineinander überführbar. So wurde auf dem Workshop diskutiert, welchen Weg man gehen kann. Interessant war für mich zu beobachten: Ein Ami schlug einen pragmatischen Weg vor (»Nimm dir einen Graduate Student und lass dir ein Programm schreiben«), während der Österreicher eine saubere Abbildung (»Ich will eine allgemeine Lösung auf der Basis eines deklarativen Mappings«) vorzog. Irgendwie passt es doch immer wieder…
Was heisst das für uns?
Es gibt am 18.2.2007 ein Treffen, um über die Frage der besseren Vernetzung von Projekten der »Solidarischen Ökonomie« (was immer das ist…) zu sprechen. Ich fürchte, da kommt nur wieder der übliche Kanon raus: Noch ein Wiki, Blog, Newsletter etc. Bringt es das? Bringt es was, sich am Kampf um Aufmerksamkeit zu beteiligen, anstatt zu gucken, wie wir untereinander zeitsparende Netzwerke knüpfen können? Ich halte es für vielversprechender, die schmale Kraft in die eigene P2P-Vernetzung zu stecken, als ungelesene Infos in die Welt zu blasen. Oder wenn denn Info-Fluten sein muss (es gibt ja gute Gründe), dann wenigstens in einer Weise, dass die Informationen wiederverwendbar sind. Dazu müssen sie maschinenlesbar sein. Die vorgestellten Miniwelt-Formate bieten sich an. Allerdings setzt das die Bereitschaft voraus, sich mit neuen Techniken zu befassen – erstmal nur eine Herausforderung für das Denken.
Danke für diesen interessanten Beitrag, der gut auch meine Zweifel an „semantischen“ Großprojekten à la Semantic Web ausdrückt! Leider haben die Miniwelt-Formate halt auch ihre Probleme, v.a dass es einerseits zum von dir angedeuteten Interoperabilitäts-Chaos kommt wenn es mehrere konkurrierende Formate für dieselbe Domain gibt, aber andererseits wohl jeweils kein einzelnes Format es allen recht machen kann…
Sowas funktioniert doch erfahrungsgemäß nur umgekehrt: Irgendwer hat eine brilliante Idee oder ein brilliantes Marketing und bringt die Killerapplikation raus, die dann alle haben wollen. Das Format, dass die dann benutzt, benutzen auf einmal auch lauter andere Programme, weil sie ja mit dem neuen Platzhirsch kompatibel sein wollen und schwups, gibts nen neuen Standard, der meist alles andere als perfekt ist. Hinterher heisst das dann „historisch gewachsen“.
Man schaue sich die Geschichte des Internets im Vergleich zu den diversen OSI-Protokollen an. Letztere wollten perfekt sein und sind gerade deswegen untergegangen.
Wenn man also wirklich das Semantic-Web voranbringen wollte, müsste man sich eine Anwendung überlegen, die jeder haben will. Wenn das dann auch noch was mit Keimformen zu tun haben soll, steigt logscherweise die Wahrscheinlichkeit nicht gerade, dass das jeder haben will. Also: vergesst das semantic Web so lange bis jemand anderes eine Killerapplikation vorlegt. Vorher ist das IMHO Zeitverschwendung.
Meine Frage war ja, ob es unterhalb der Killerapp einen Vernetzungsnutzen für uns geben kann. Wenn zum Beispiel (fiktiv) eine Datenbank für alternative Projekte angelegt werden soll, dann ist es IHMO wesentlich sinnvoller, DOAP zu nutzen als eine neue MySQL aufzusetzen. Mit DOAP kann man nämlich die Daten in Form dezentraler Annotationen, die irgendwo liegen, behandeln. Dann fehlt nur noch eine Maschine, die das einsammelt und visualisiert. Dito bei FOAF etc.
Der Knackpunkt scheint mir aber nach wie vor zu sei, dass unklar ist, was „wir“ eigentlich wirklich brauchen.
Ich beschäftige mich seit mehreren Jahren mit den hier angeschnittenen Fragen und verschwende meine Zeit damit: nicht mit dem semantic web, aber mit einer Alternative.
Das semantic web ist der misslungene Versuch, freiwillige Kooperation in einer Welt der Konkurrenz zu denken:
Kooperation funktioniert im Kapitalismus nur auf Basis vertraglicher Absprachen (oder anderem Zwang); ohne Absprache ist es besser, einen eigenen Standard (hier: Ontologie u. evtl. Interface) zu erfinden, um eigenes Territorium auf dem Markt abzustecken. Jedenfalls solange sich noch kein Standard durchgesetzt hat (bzw. eher durchgesetzt wurde), und danach ist das meist nicht der beste (vgl. M$ OS).
Es fehlt an Beteiligungsmöglichkeiten zur Definition von Standards, die ähnlich offen sind wie z.B. Wikipedia. Beim semantic web sind hauptsächlich Konzerne beteiligt. Wäre das nicht der Fallt, fehlte ein Verfahren, wie mensch zu allgemein anerkannten Definitionen kommt. (Meine Lösung heisst peer review.)
Beim semantic web werden Services i.d.R. von Wirtschaftsunternehmen zur Verfügung gestellt; Minderheitenbedürfnisse fallen tendenziell unter den Tisch, weil nicht jedeR die Möglichkeit hat, eigene Services zu betreiben mit Standards/Definitionen, die den eigenen Bedürfnissen entsprechen.
Beim semantic web sind die Vertrauensbeziehungen die zwischen Käuferin und Verkäufer, d.h. ich muss meine Daten Unternehmen geben, denen ich nicht wirklich trauen kann. Ich müsste die Kontrolle über meine eigenen Daten freiwillig aufgeben.
Die Dezentralisierung des semantic web unter kapitalistischen Bedingungen ist ein Mythos: Am effektivsten lassen sich die Daten verarbeiten, wenn sie konzentriert sind; die Daten landen früher oder später in den Händen grosser Konzerne, weil die damit professioneller umgehen, einen besseren Service und schnelleren Zugriff etc. bieten als kleinere.
Ich will kein semantic web. Ich will ein universelles Werkzeug, mit dem sich Wissen darstellen und user-kontrolliert verarbeiten lässt.
Ich will kein reasoning/automatic inference, sondern user controlled inference.
Ich will keine vordefinierten Strukturen, sondern selbst definierbare Strukturen, die in einem peer review Prozess auch zu allgemein anerkannten werden können, oder eben meine persönlichen Strukturen bleiben, die ich gemeinsam mit ein paar FreundInnen nutze. (Ich brauche keine Einheitsstrukturen, die braucht der Kapitalismus um am Massenmarkt Profit zu ermöglichen.)
Ich will eine freie Software, die nicht von Unternehmen, sondern von dezentralen Kollektiven betrieben wird.
Ich sehe in der Vernetzung lokaler Kollektive eine neue Qualität, die in der Konkurrenz-Ökonomie unmöglich ist. Daher denke ich, dass frühere Kapitalismus-Erfahrungen auf meinen Vernetzungsansatz nicht uneingeschränkt anwendbar sind. Der Kapitalismus wird keine Killerapplikation für eine wirliche Vernetzung hervorbringen; hier ist eine Grenze, an der Keimformen eine Chance haben.
Ich halte nichts davon, die Hände in den Schoss legen und in der ZuscherInnenrolle verharrend sich die Welt zurecht denken, wie ich das einige Jahre bei Oekonux beobachtet habe.
Ich arbeite nicht an der Killerapplikation, aber an einem universellen Werkzeug der Wissensrepräsentation: das Wissen wird in Objekten abgebildet, jedes Objekt (z.B. alle Instanzen einer Bohrmaschine) liegt in einer SQL table auf einem Server (und n weiteren, die redundante Kopien enthalten), kann also mit SQL-queries schnell nach Attributen (wozu automatisch auch immer Ort, Zeit und Thema gehören) durchsucht werden. Die Hauptanwendung sehe ich im Teilen von Ressourcen in NutzerInnengemeinschaften.
P.S.: Die semantic extension macht das Mediawiki auch zu einem Ontologieeditor, allerdings ohne die Möglichkeit Zugriffsrechte einzustellen und ohne ein adäquates user interface.
Gute Zusammenfassung… Danke Stefan, war mal wieder gut diese w3c dinge zu lesen, wie auch über die semantik sache zu reflektieren.
Mein Kommentar weiterhin inhaltlich hat sich danke ibu’s Beitrag erübrigt. Vielleicht noch ein Gleichnis: Das semantic web, also dieser Begriff hat für mich zwei Bedeutungen deren Gegensätzlichkeit von epischer Tragweite sind, zum einen eben diese auf dem Papier entworfene Skizze einer web-technologie, und zum zweiten alle Interaktionen mit Bedeutung im Web mit Hilfe aller tools die an allen Ecken und Enden von usern so beigetragen wurden, im Sinne wie ibu das schreibt. Der Gegensatz ist exakt dasselbe, was den Unterschied macht zwischen Bibel, BaghabvadGita oder Matrix verstehen und den Weg selbst zu gehen. Sapperlott!
Ja, Stefan, vielen Dank fuer den spannenden Beitrag.
Von (guter) Repraesentation zu (guter) Praxis muss es gehn, da bin ich ganz einig. Und es gibt halt nicht mehr so unbefragt dieses „unser“ in „unserer Lebenspraxis“ und damit natuerlich auch keine eine Welt-Ontologie. Auch da waehne ich uns einig.
Bennis Einwurf lese ich nun als Hinweis darauf, dass unter der Bedingung immer staerkerer Fragmentierung von Praxen (Schlagwort: Individualiserung – auch wenn es das natuerlich nicht ganz trifft) nur ganz wenige Kraefte gibt, die es im Kreuz haben Praxen zu formieren: eben immer weniger der Staat oder die Klasse oder die Schicht – sondern global agierende oekonomisch maechtige Produzenten von Werkzeugen (Killerapps). Mit anderen Worten: Wir tun immer weniger das, wohinein wir geboren/sozialisiert sind und immer mehr das wozu uns die Werkzeuge zur Verfuegung stehen. Und nur wenige sind so global vernetzt, dass sie diese einigenden Werkzeuge, die auf die besagte kritische Masse angewiesen sind, produzieren und distribuieren koennen.
Vielleicht eine steile These, aber m.E. bedenkenswert, v.a. wenn wir ueber die Standards aus der FOSS Welt nachdenken und deren Prinzip der Offenheit, das Interoperabilitaet statt Formierung propagiert. Nochmal mit anderen Worten: Egal ob wir fuer unsere Praxen verschiedene Werkzeuge benutzen, wichtiger ist, dass sie irgendwie sinnvoll ineinander uebersetzbar sind.
Stichwort Interoperabiltät:
Können wir hieran nicht doch weiterdenken? Wie können wir unsere Praxen rund um die NutziGems, CoForums, Oekonuxe, opentheorys, FG-Wikis, Laboratorien dieser Welt „irgendwie sinnvoll ineinander übersetzen“? Bekommen wir dadurch nicht schon eine eigene kritische Masse zusammen?
weiß nicht wo das problem ist. – das heißt ich weiß schon wo es ist und das es eins ist, aber ich hätte da das Konzept wie man die Ontologien die unsere Wissenssysteme und wir selbst benutzen zusammenbringt. Das ist doch schon mal was. – Es wird emergieren. Wenn man mal ein bißchen dran coden könnte, wäre schon fein. flo
Danke Stefan für den Bericht.
Für mich hat bei dem Thema „das Soziale“ vorrang. Sobald genug Menschen ein gemeinsames Ziel verfolgen, wird die Technik zu etwas brauchbaren entwickelt.
Bei dem Treffen im Februar wird es mir darum gehen, solch soziale Übereinkünfte zu suchen.