Open Access Extended

von Ulf Treger, Vortragsmanuskript zur Veranstaltung 10 Jahre Archiv k23,

Der Fokus meines Vortrags ist die Verfügbarkeit von »Wissen« (und Informationen) in elektronischen Medien. Im vorgehenden Beitrag von Ulrike Mahlmann wurde die Möglichkeiten für Autorinnen und Autoren vorgestellt, ihre Werke relativ freizügig zu veröffentlichen. Ich möchte hiermit die Perspektive der Einrichtungen und Projekte, die Inhalte anbieten hinzufügen.

Mit dem Internet wurde in den vergangenen zehn Jahren eine Vielzahl von Versprechen und Überhöhungen verknüpft. Auch wenn längst nicht alle davon eingelöst wurden (wie das Versprechen eines Goldrausch-artigen »wirtschaftlichen Erfolgs«, wie er rund um den DotCom-Hype 1999/2000 imaginiert wurde), so stellen heute internetbasierte Hypermedien einen wichtigen, und dabei sehr dynamischen Bereich medialer Kommunikation dar -- lediglich die Zuschreibungen haben sich deutlich relativiert. Die Entwicklung und Verbreitung des Internets geht trotz gedrosselter Erwartungshaltungen unvermindert weiter. Zu beobachten sind zum einen Verbesserungen und Verfeinerungen hinsichtlich der spezifischen Eigenschaften von Hypertext sowie der bi- und multi-direktionalen Kommunikation. Die Anwendung von Netzmedien entwickelt sich zunehmend von einem Imitat/Nachbau herkömmlicher Medien (also auf der Ebene der Websites von Katalog, Zeitung oder Visitenkarte, Imagebroschüre) zu einem eigenständigen Medium weiter (wie vielleicht Blogs, Filesharing, Wikis), auch auf der Ebene von vermittelnden Metaphern. Zum anderen hat bereits eine sich schon früher abzeichnende Verschmelzung mit anderen Medien wie (Mobil-)Telefonie oder Fernsehen begonnen. Insbesondere durch eine zunehmende Mobilisierung und Miniaturisierung wird künftig die internetbasierte Kommunikation immer weitere Teile des physikalischen Raumes durchdringen oder beeinflussen und künftig noch weitergehende Effekte und Veränderung in Kommunikation, Wahrnehmung und Mediengebrauch hervorrufen.

Heutzutage sind vor allem drei Aspekte bei der Internet-basierten Kommunikation von Bedeutung: Das Netz als Plattform für die synchrone und asynchrone Kommunikation, mit eMail, Chat- und Messengersystemen, Foren und den Schwarzen Brettern des Usenet, bis hin zu neueren Entwicklung wie VoIP (oder auch Internettelefonie genannt); das Netz als Basis für soziale Prozesse, also Phänomene wie Selbstorganisation, Kollaboration, soziale Netzwerke, die auch für die gemeinschaftliche Produktion von Software, Musik und anderen Kulturproduktionen genutzt werden; sowie das Netz als Veröffentlichungsmedium und Wissenspeicher, in dem mit einfachen Mitteln und geringen Kosten (also ohne Ausgaben für Reproduktion und Weiterverteilung), dezentral verfügbare Informationen publiziert werden können.


Gedächtnisprozesse

Besonders die beiden letzten Aspekte haben zu einer veränderten »Verfügbarkeit von Kulturwissen« beitragen. Im Gegensatz zu herkömmlichen Methoden des Speicherns, in »Archiven«, werden im Internet riesige Ansammlung von Informationen, nicht mehr nur statische »Gedächtnisobjekte« gespeichert, vielmehr entstehen hier »Gedächtnisprozesse« in deren Verlauf Inhalt, Zusammensetzung und Kontext einer steten Veränderung unterliegen. Wolfgang Ernst beschreibt dies in seinem Buch »Das Rumoren der Archive«: »Jenseits der traditionellen Vorstellungen des Archivs als Container oder black box zeichnet sich die dynamische Konzeption komplexer Systeme aus Speichern, Menschen und Organisationen ab, im ständigen Spiel von De- und Rekontextualisierung«. (Wolfgang Ernst: Das Rumoren der Archive, 2002, ISBN 3-88396-176-0 ) Mit der Eigenschaft als dynamischer oder auch »flüssiger« Wissenspeicher möchte ich mich in diesem Vortrag eingehender beschäftigen: Denn angesichts der Veränderungen durch internetbasierte Kommunikation auf Medien und Mediengebrauch, sind eine Reihe von Problemstellungen entstanden, so die Frage nach Verfügbarkeit, Zugang, Bewertung und Gebrauch von Informationen, die über dieses Medium verfügbar gemacht werden.

Ein Stichwort, das in diesem Kontext angeführt wird, ist »Digital Divide« oder auch »Content Divide«, also die Kluft zwischen allen, die ungehinderten Zugang zu Internettechnologien und die darüber verfügbaren Inhalte haben und denen, die diesen Zugang nicht haben. Der Anspruch auf eine allgemeine Chancengleichheit führt zu der Frage, wer unter welchen gesellschaftlichen, ökonomischen wie technischen Bedingungen Zugang zu Informationen hat, und wer nicht, und im Weiteren auch, mit welchen Intentionen Informationen veröffentlicht werden und welche demnach nicht. Diese Fragen sind so basal wie brisant, wäre doch nach den prinzipiellen technischen Eigenschaften digitaler Kommunikation der Zugang zum Wissen einfacher und allgemeiner, als in allen Epochen der Mediengeschichte zuvor.

Im Bereich von Wissenschaft und Forschung wird versucht, eine Antwort auf diese Frage nach der Zugänglichkeit von Wissen zu finden. Dieser Ansatz lässt sich bei der Idee des »Open Access«, des »offenen Zugangs« finden, den ich hier kurz umreißen möchte.


Open Access

Die Idee des offenen Zugangs wird in verschiedenen Erklärungen und Initiativen propagiert, so in der Budapest Open Access Initiative, der »Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen« oder der »Wiener Erklärung: 10 Thesen zur Informationsfreiheit« Die Berliner Open Access Erklärung wurde 2003 von den großen bundesdeutschen Wissenschaftsorganisationen verfasst (so von der Deutschen Forschungsgemeinschaft, der Max-Plank-Gesellschaft, dem Wissenschaftsrat und der Hochschulrektorenkonferenz) und definiert als eine dem Open Access Gedanken folgende Praxis, die freie Verfügbarkeit von Werken in elektronischen Publikations- und Archivsystemen, sowie die Erlaubnis zur freien Weitergabe und Veränderung der veröffentlichten Werke. So soll eine möglichst große Basis frei verfügbaren Wissens entstehen: »Zur Verwirklichung der Vision einer umfassenden und zugänglichen Wissensrepräsentation muss das künftige Web nachhaltig, interaktiv und transparent sein. Inhalte und Software müssen dazu frei verfügbar und kompatibel sein.« Berliner Erklärung

Ein Auslöser für diese Initiativen ist die sogenannte »Zeitschriftenkrise (WikiPedia)«. Diese Krise betrifft das Veröffentlichungswesen insbesondere in den Naturwissenschaften, das traditionell auf kommerziellen Zeitschriftenverlagen basiert und zunehmend als nicht finanzierbarer Kostenfaktor und Hemmnis für den freien Zugriff auf Fachveröffentlichung begriffen wird. Durch zwei Methoden, nämlich der Selbstveröffentlichung (des Self-Archiving) durch Wissenschaftler in Publikationsservern sowie der Gründung von Open-Access-Journals, sollen freie und kostengünstige Infrastrukturen entstehen und nebenbei der Kostenfaktor der teueren Fachzeitschriften reduziert werden. Dementsprechend sind die Naturwissenschaften bereits seit Jahren federführend in Entwicklung und Betrieb von Veröffentlichungsystemen im Netz.

Ein zentraler Aspekt des Open Access ist also die Frage nach der langfristigen und freien Verfügbarkeit von nicht nur wissenschaftlichen sondern – je nach Lesart – auch aller anderen Arten kultureller Produktion im elektronischen Zeitalter. Dies betrifft insbesondere solches Wissen, dessen Produktion – wie es von Fürsprechern der Open Access Idee gerne angeführt wird – zum größten Teil von öffentlichen Steuermitteln bezahlt wurde (Harold Varmus zit. nach Mruck, Mey: »Open Access«, Forum Wissenschaft, 2005). Es wäre deshalb absurd, ja verwerflich, diese gar nicht, oder ausschließlich gegen Gebühren oder über andere Hemmschwellen zugänglich zu machen. Damit einher gehend sind die nationalen Urheberrechtsgesetze – den Wiener Thesen zur Informationsfreiheit zufolge – »überarbeitungsbedürftig«, um einen verloren gegangenen Ausgleich der Interessen von »UrheberInnen, VerwerterInnen und der Allgemeinheit« wieder herzustellen. Hier zeigt sich ein Verhältnis, welches nicht durch die veränderten Bedingungen durch elektronische Kommunikation beeinflusst wird, sondern sich auch verstärkt zum Vorteil der Verwertertenden vorschoben hat. In der Praxis soll eine Open Access Veröffentlichung nicht im Widerspruch zur einer honorierten Veröffentlichung stehen, sondern immer dann Anwendung finden, wenn AutorIn entweder kein Honorar erhält, oder vor der Veröffentlichung als so genanntes »Preprint« oder aber, wenn nach der Erstveröffentlichung eine gewisse, nicht zu großzügig bemessene Zeit vergangen ist.

In Folge der Erklärung vor 2 1⁄2 Jahren ist hier zu Lande nur eine bescheidene Anzahl von Unternehmungen öffentlich wahrnehmbar, um die Open Access Idee mit Leben zu füllen. Ein Ansatz geht von DINI (der Deutschen Initiative für Netzwerkinformation, ein Zusammenschluss von Bibliotheken und Medienzentren von Hochschulen) aus, die mit Hilfe einer »Zertifizierung« von Publikationsservern, institutionelle Inhalte-Anbieter wie Hochschulbibliotheken und akademische Medieneinrichtungen für die Einhaltung konzeptioneller und technischer Grundlagen des »Open Access« gewinnen will. (Das Archiv- und Publikationssystem ask23 hat sich kürzlich erfolgreich um ein solches Zertifikat bemüht, was ein Anlass für die heutige Veranstaltung ist). Das Problem ist auch, dass außerhalb der Gruppe der Naturwissenschaftler die Idee wenig bekannt ist oder gar in die Praxis umgesetzt wird. So wird in den Geisteswissenschaften nur jede 20. Veröffentlichung im Internet veröffentlicht (vgl. heise news ), ganz zu schweigen von dem praktisch nicht messbaren Anteil von Veröffentlichungen nach den Prinzipien des Open Access.

Kritisiert wird an der Berliner Erklärung vor allem das Fehlen einer konkreten Empfehlung für ein bestehendes oder gar die Entwicklung eines eigenen Lizenzmodells. (vgl. ifrOSS: »Open Content und Open Access«) Mit Bezugnahme auf diese Ansätze wäre zu erörtern, wie es um ihre Wirksamkeit bestellt ist, vor allem was darüber hinaus unter einem freien Zugang verstanden werden könnte.


Problematiken

In diesem Kontext sind einige Problematiken augenfällig, über deren Auswirkungen eine breitere Diskussion wünschenswert wäre:

Zum einen das Urheberrecht, mit der schon erwähnten Kritik, dass sich hier eine deutliche Verschiebung in der Intention ergeben hat, vom Focus auf die Autorenrechte hin zu den Rechten der Verwertungswirtschaft. (Ob bei der Entwicklung des Urheberrechts die Intention wirklich auf die Rechte von AutorInnen lag, oder ob hier nicht schon bereits die Verwertungsträger die eigentlichen Bevorteilten sein sollten, sei an dieser Stelle dahingestellt). Nach Lev Manovich beruht das Urheberrecht (bzw. das Copyright im angelsächsischen Raum) grundsätzlich auf der Mitteilung, was man nicht mit Werken anderer machen darf – und nicht, wie es bspw. durch Creative Commons versucht wird, durch die positivere Botschaft, was mit einem Werk gemacht werden darf (Lev Manovich: "Black Box - White Cube, 2005, ISBN 3883961973).

Damit verbunden ist eine andere, bedenkliche Entwicklung: Elementare Eigenschaften von digitalen Daten sind bekanntlich ihre verlustfreie »Kopierbarkeit« (oder genauer die Möglichkeit, beliebig viele Originale erzeugen zu können) sowie die einfache Verteilbarkeit dieser Daten über Zeit und Raum hinweg. Offensichtlich gibt es vielfache Bestrebungen diese Grundeigenschaften künstlich und oft mühevoll einzuschränken, um so digitalen Daten – als theoretisch unbegrenzt verfügbare Ressource – durch Verknappung und Zugangsbeschränkung eine bessere »Warenförmigkeit« zu verleihen. Als Stichworte seien hier technische Maßnahmen wie Digital Rights Management oder juridische wie Verschärfungen des Urheberrechts auf nationalen und internationalen Ebenen (das sich dadurch immer mehr zu einem »Handelsrecht« zugunsten einer industriellen Vermarktbarkeit entwickelt) genannt. Zudem werden durch technische und aufwändige Eindämmungsversuche digitale oder digitalisierte Werke wie Musik und Filme soweit verändert, dass sie für die KonsumentInnen nur noch unter beschränkten Bedingungen (mit eingeschränkten Funktionalitäten, durch spezielle Wiedergabe-Software oder die Beschränkung auf bestimmte Systemumgebungen) benutzbar sind. Das führt zu drastischen Einschränkungen in der Freiheit der Benutzung, ungefähr so, also ab man sein gekauftes Buch nur mit einer speziellen Brille einer bestimmten Optikerkette lesen könnte. Es ist zu bezweifeln ob solche Maßnahmen das eigentliche Problem, nämlich dass sich klassische Vermarktungswege schlecht mit den neuen elektronischen Medien vertragen, lösen können.

Die Schrankenregelung ist hierzulande im Übrigen eine der wenigen Ausnahmen für eine genehmigungsfreie Nutzung von Werken, die durch das Urheberrecht geschützt sind. Diese Nutzung ist nur in einem eng definierten Rahmen und im begrenzten Umfang für Lehre und Forschung erlaubt. Der Fortbestand dieser Ausnahmeregelung im Paragraphen §52a ist allerdings nicht gesichert: In der aktuellen Fassung des Urheberrechtsgesetzes ist dieser Abschnitt nach harten Auseinandersetzung nur mit einer zeitlich begrenzten Gültigkeitsdauer aufgenommen worden (bis Ende 2006). Deshalb steht die Regelung in diesem Jahr erneut zur Disposition, und es ist ungewiss ob sie erhalten bleibt. Dieser Umstand ist ein weiterer Grund über offene Inhalte auch im akademischen Kontext zu diskutieren, da diese Regelung bis dato eine relativ freizügige Benutzung geschützter Werke im Kontext von Forschung und Lehre erlaubt.

Bastard Pop - RIAA: "Recording Industries Are Archaic"

Ein weiteres Feld, das es zu verhandeln gilt, ist das Autorenmodell. Hierbei ist vor allem die Frage interessant, unter welchen Bedingungen AutorInnenschaft bzw. Kulturproduktion im Allgemeinen funktionieren. Wie sie insbesondere durch ihren sozialen und kulturellen Kontext beeinflusst werden, und welche Bedeutung der Zugriff auf Wissen zukommt, um wiederum eigenes Wissen und Kulturproduktionen erzeugen zu können. Frei nach Roland Barthes ist schließlich jeder Text (und damit im weiteren Sinn jedes kulturelle Produkt) „ein Gewebe von Zitaten aus unzähligen Stätten der Kultur“. Ohne diesen wichtigen Komplex hier ausführlicher behandeln zu können, so ist doch festzustellen, dass das Modell der Autorenschaft im elektronischen Zeitalter einen Bedeutungswandel erfährt und sich das Bild der vermeintlich autonom agierenden KünstlerIn oder AutorIn weiter zersetzt. Dagegen finden kollaborative Arbeitsprozesse in digitalen, vernetzten Medien eine hervorragende Grundlage. Eine interessante Rolle kommt hierbei der elektronischen Musik zu, von Hip Hop über Elektro, Grime bis Bastard Pop. Hier wird mit den Methoden des Remix, Sampling oder Mash-Ups gearbeitet - die Entstehung völlig neuer Werke unter direkter Zuhilfenahme bestehender Werke ist längst allgemein als legitime Kulturpraxis anerkannt. Eine bewußte Überspitzung findet im Bootlegging oder »Bastard Pop« statt, wo ohne viel Umstände aus zwei bis drei unterschiedlichen Musikstücken relativ brachial eine neue Version zusammengeschweißt wird. Den Produzierenden ist dabei völlig bewusst, dass ihre Methoden gängigen Regeln des Copyrights oder Urheberrechts widersprechen. Lev Manovich stellt in diesem Zusammenhang fest, dass in vielen anderen Bereichen, wie Film, Design und Grafik, Remix und Sampling zur täglichen Praxis gehören, dies aber in der Regel verheimlicht wird und „es keine geeigneten Begriffe gibt, die dem Remixen in der Musik entsprechen würden und diese Praktiken beschreiben könnten“ (Lev Manovich: "Black Box - White Cube, 2005, ISBN 3883961973). Hier wäre also nötig, einen Shift der Kulturtechniken unter elektronischen Vorzeichen anzuerkennen und zu bewerten. Eine solche Neubewertung könnte dann auch dazu beitragen, eine Antwort auf die landläufige These zu entwickeln, die besagt, dass nur durch Verknappung und Zugriffsbeschränkung die Ergebnisse schöpferischer Arbeit gesichert werden können.

Aus meiner eigenen Praxis, der Entwicklung von künstlerischen Projekten und Kulturproduktionen, kann ich feststellen, dass diese Projekte ohne die Möglichkeit breit und niedrig schwellig, zielstrebig oder assoziativ auf Informationen zuzugreifen um damit den Hintergrund der eigenen Auseinandersetzung füllen zu können, nicht zu realisieren wären, bzw. ihre Produktion mit deutlich größerem Aufwand verbunden wäre. Der Zugriff auf verfügbare digitale Informationen, beispielsweise mit Hilfe des größten bestehenden „Open Access Systems“, der Suchmaschine »Google«, entspricht auch der heute gängigen Praxis vieler Studierender.

Schließlich der Hinweis auf das Problem der »Walled Gardens«, der umzäunten Gärten: Darunter sind Softwareprojekte zu verstehen, die aufgrund fehlender Kompatibilität, aufgrund von Datenstrukturen, die im schlechtesten Falle nur mit ganz bestimmten Programmen einzelner Firmen lesbar sind, nach außen hermetische Systeme darstellen. Projekte, die sich als solche geschlossene Systeme aufstellen, erschweren oder verhindern nicht nur den Zugang zu ihnen. Sie geben sich auch in äußere Abhängigkeiten, indem sie sich auf intransparente Datenformate oder individuelle Normierungen beziehen. Nach dem Verschwinden einer Firma (Liquidation, Übernahme oder Insolvenz), und damit ihrer Produkte, können solche Projekte mittelfristig nicht mehr genutzt werden oder müssen mit großen Aufwand auf andere Plattformen übertragen werden. So wird im e-Learning Bereich häufig mit proprietären, hermetischen Systemen gearbeitet: Die für e-Learning Kurse erstellten Inhalte sind darin geradezu eingeschlossen - räumlich und zeitlich begrenzt. Der Aufwand für ihre Erstellung oder Aufbereitung steht dazu in keinem vernünftigen Verhältnis. Für digitale Wissensammlungen, die langfristig und frei verfügbar gemacht werden sollen, gilt es aber, genau diese Probleme und Abhängigkeiten zu vermeiden.

Opus Creative Commons


Open Source, Free Software und die Idee des Open Content

Die Idee eines Freien Zugangs und der Freien Inhalte ist besonders durch Erfolg und Bedeutung der Freien Software Bewegung inspiriert worden. Dabei wurde anfangs bezweifelt, dass sich das Open-Source-Konzept der kollaborativen Produktion von Programmiercode auf Textproduktionen, multimediale und andere visuelle Werke übertragen lassen. Sicherlich ist die AutorInnenschaft (und vielleicht auch die so genannte »Schöpfungshöhe«) bei Codezeilen eines Programms anders einzuordnen, als bei Essays, Fotografien oder Zeichnungen. Aber Beispiele wie Wikipedia und andere auf Wiki-Software basierende Wissensysteme zeigen, dass es durchaus möglich ist, so genanntes »geistiges Eigentum« kollaborativ zu erstellen. Auch experimentelle und künstlerische Projekte wie die OPUS-Plattform der indischen Künstlergruppe Raqs Media Collective oder die Social Software »Nine« der Gruppe Mongrel sind entsprechende Beispiele für eine exemplarische Annährung an diese Produktionspraxen.


Der erweiterte offene Zugang

TouchGraph GoogleBrowser? (Java)

Wie ließe sich mit Blick auf die Konzepte der Freien Software-Bewegung die Idee eines offenen, freien Zugangs zu Wissen und Informationen mit Leben füllen und ausbauen? Folgende Elemente können dabei eine Rolle spielen:

1) Auf der Ebene der technischen Grundlagen bietet sich die stringente Verwendung von Offenen Standards, Datenformaten und Metadaten an, wie sie insbesondere durch das World Wide Web Konsortium vorgeschlagen werden, sowie die Errichtung von offenen Schnittstellen, um die Daten über System- und Softwaregrenzen hinweg austauschen und kombinieren zu können. Ein anderes, triviales Beispiel, aber keineswegs eine Selbstverständlichkeit, ist die Möglichkeit der Durchsuchbarkeit von Publikationsystemen mit Suchmaschinen.

del.icio.us

2) Für die Erprobung und Weiterentwicklung von Netztechnologien sind zwei Ansätze beispielhaft: Die Verknüpfung und Rekombination von Informationen, also die Kombination von verschiedenen Informationsquellen und Datendiensten und somit die Anreicherung des eigenen Informationsangebots; die Informationsstrukturierung und -anreicherung durch Anwenderfeedback. Eine interessante Entwicklung in diesem Zusammenhang sind Tags oder »Folksonomies« (also Taxonomien oder Kategorisierungen, die durch die AnwenderInnen definiert werden, wörtlich »Klassifizierung durch Leute«). Diese Klassifizierungen ergeben bei ausreichender Breite der Benutzung eine erstaunlich gute Qualität und erlaubt den AnwenderInnen die Zuordnung und das Auffinden von Informationen.

Citebase Search, Bsp. Alan Turing

Ein anderes Beispiel aus dem wissenschaftlichen Bereiche sind automatische, sich selbst erzeugende Referenzsysteme, welche Quellennachweise einer wissenschaftlichen Arbeit automatisch auswerten, und so Rückverweise sichtbar machen, also die Frage beantworten, wer sich in welchem Kontext auf ein anderes Werk bezieht.

3) Open Content – offene Nutzungslizenzen mit dem Ziel der freien Verfügbarkeit meint nicht nur die Veröffentlichung auf einer Website, sondern die Kombination mit einer offenen Nutzungslizenz (Creative Commons, Free Documentation Licence) sowie damit einhergehend die Selbstverpflichtung von Inhalteanbietern, besonders den Archiv- und Publikationsystemen, die von ihnen veröffentlichten Inhalte offen und langfristig verfügbar zu halten. Daneben gibt es neue Konzepte für das Urheberrecht, wie beispielsweise der Vorschlag den urheberrechtlichen Schutz eines Werkes nach einem gewissen, überschaubaren Zeitraum, zur allgemeinen Benutzung freizugeben.

4) Ein zentrales Element wäre die Offenheit in der Intention, also das Prinzip der Offenheit bei der die Ausrichtung der Anlage/Konzeption beim Aufbau von Wissensystemen, Archiven und Publikationsplattformen zu berücksichtigen – ich habe vorhin mit den »walled gardens« ein Negativbeispiel erläutert. Anstatt also hermetische „Kurse“ zu „designen“, ist vielmehr die Erstellung einer kombinierbaren und kontextualisierbaren Matrix erstrebenswert, deren Inhalte auch über den unmittelbaren Kontext, über Raum und Zeit zur Verfügung stehen und die sich mit anderen Wissensystemen rekombinieren lassen. Eine solche grundlegende Intention betrifft natürlich auch das Veröffentlichen von Werken selbst und, siehe oben, deren Verknüpfung mit entsprechenden Lizenzen.

5) Das Experimentieren mit und Erfinden von Schnittstellen, Navigationsmodellen und alternativen Datendarstellungen stellt Fragen nach der Repräsentation von Daten und ihren Relationen und reflektiert Aussagen und Setzungen die durch Repräsentationen, Metaphern und Schnittstellen getroffen werden. Ein Beispiel ist das u.a. von Ulf Freyhoff entwickelte System Imagespace.

6) Schließlich existieren flankierende Maßnahmen zur Unterstützung und zum Ausbau offener Datendienste: Um eine gewisse Unabhängigkeit von Veränderungen in der Unternehmenspolitik einiger weniger Firmen (Google, Yahoo, ...) zu erreichen, wäre der Aufbau von freien Suchmaschinen sinnvoll.

Dieser Set aus Maßnahmen ließe sich sicherlich weiter verfeinern oder erweitern, stellt aber eine Grundlage für eine erweiterte Praxis des offenen Zugangs dar.

Abschließend ein praktisches, vereinfachtes Beispiel aus dem Hochschul-Alltag für die Anwendung der Open Access Idee: Ein Projekt, Seminar oder Workshop könnte also unter Anwendung vorhandener Methoden wie folgt verfahren: Zu Beginn stünde unter Nutzung geeigneter und einfacher Werkzeuge und Plattformen eine Recherche darüber an, welche Informationen zum Thema eines Seminars zur freien Verfügung stehen. Diese würden über eine Projektwebseite referenziert und für die Seminararbeit eingesetzt. Informationen, die noch fehlen, müssten für diese Sammlung ergänzt werden - bei Copyright geschützten Werken unter Beachtung der Schrankenregelung. Schließlich würden alle Informationen (Daten, Definitionen, Texte, etc.), die im Rahmen des Seminarverlaufs selbst entstehen, unter einer geeigneten offenen Lizenz in einen Pool freier Informationen eingespeist. Jede Nutzung der öffentlichen Wissensbasen würde durch solche Vorgehensweisen nicht nur die eigene Praxis bereichern, sondern im Gegenzug auch eine Erweiterung dieser Basen bewirken. Die so gesammelten bzw. veröffentlichten Informationen sind künftig für andere Kontexte verfügbar (von nachfolgenden Seminaren bis zu völlig anderen Kontexten, mit gewissen Überschneidungen inhaltlicher Interessen).

Nun wäre die Frage legitim, ob es wirklich sinnvoll ist, »alles mögliche« zu veröffentlichen. Selbstverständlich ist »Masse« an sich kein besonders gutes Konzept. Wir sind weit davon entfernt, diesem Problem gegenüber zu stehen. Wenn es dann mal soweit sein sollte – über Hypertextmedien wird auch gerne in einer Gehirn-Metapher gesprochen – wird das Vergessen eine interessante Funktion werden. Von Bedeutung sind in diesem Zusammenhang auch synergetische Ansätze, die vermeiden helfen, dass gleichförmige/redundante Informationen an vielen verschiedenen Stellen angehäuft werden. Mit diesen Bedingungen könnte eine langfristige Perspektive, oder wie es heute so schön genannt wird, eine »nachhaltige« Kultur des freien Zugangs zu Wissen und Informationen entwickelt und gefördert werden, von der nicht nur alle beteiligten Akteure sondern auch die Öffentlichkeit als Ganzes profitieren würde.