Björn Brembs: Großverlage arbeiten daran, „den wissenschaftlichen Workflow zu monopolisieren“

Forscher*innen erarbeiten wissenschaftliche Erkenntnisse, fassen sie in Texten zusammen und veröffentlichen diese als Aufsätze oder Bücher in wissenschaftlichen Verlagen. Dieses System ist seit Jahrzehnten eingespielt, es wird selten hinterfragt.
Björn Brembs ist Professor für Neurogenetik an der Universität Regensburg. Er beschäftigt sich seit Jahren mit der Transformation des wissenschaftlichen Verlegens und bringt sich mit eigenen Beiträgen kritisch in die Debatte ein.
Brembs ist der Meinung: Die Wissenschaft habe mit den Großverlagen ein System mitaufgebaut, das ihr mehr schade als nütze. Denn die Verlage investierten das viele Geld, das sie von den Universitäten zur Publikation bekämen – darunter auch hohe Open-Access-Gebühren – um datengestützte Tracking- und Analysesysteme zu entwickeln, die sich auch zur Überwachung von Wissenschaftler*innen einsetzen lassen.
Im Interview mit iRights.info erläutert Brembs seine Beobachtungen, übt Kritik an Knebeldeals zwischen Verlagen und Bibliotheken und macht sich für eine Modernisierung der digitalen Infrastruktur in der Wissenschaft stark.
Herr Brembs, Sie beobachten das akademische Verlagswesen schon seit einigen Jahren und schreiben kritisch darüber, zum Beispiel auf Ihrem Blog. Für unsere Leser*innen: Was machen wissenschaftliche Großverlage wie Elsevier eigentlich?
Es geht um die großen vier mit Marktdominanz: Elsevier, Springer Nature, Taylor & Francis und Wiley. Diese vier publizieren natürlich nicht nur naturwissenschaftliche, sondern beispielsweise auch wirtschaftswissenschaftliche Journale.
Das Geschäftsmodell von diesen vier großen Verlagen ist identisch, unabhängig von den Fächern. Die Daten sagen dazu folgendes: Circa 85 Prozent der Einkünfte der Verlage kommen aus der öffentlichen Hand, also aus Bibliotheken. Was man auch weiß, das ist das Gesamtvolumen der Subskriptionseinkünfte weltweit, etwa 10 Milliarden Dollar pro Jahr für ungefähr zwei bis drei Millionen Artikel.
Damit liegt man ungefähr bei einem Preis zwischen 4.000 und 5.000 Dollar pro publizierten Artikel, der an die Verlage geht. Über diese Subskriptionsgebühren finanzieren sich die Verlage, seit einiger Zeit zunehmend auch über die sogenannte Artikel Processing Charge (APC) von Open-Access-Publikationen. Bei APC bezahlt man also nicht mehr dafür, dass man liest, sondern dafür, dass man als Autor*in publiziert.
Wenn man so einen Artikel für 4.000 Dollar nimmt, dann sind davon ungefähr 600 Dollar Publikationskosten und etwa 30 % Profit, also etwa 1.200 Dollar. Dann bleiben 2.200 Dollar übrig.
Wie kommen Sie denn auf diese Zahlen?
Die Produktionskosten kann man ausrechnen: Die verschiedenen Dienstleistungen, die so eine Publikation benötigt, lassen sich nachschlagen. Wenn es nur eine Angabe der Arbeitszeit gibt, kann man abschätzen, wie viele Stunden so ein typischer Artikel bearbeitet wird für einen Arbeitsgang. Das lässt sich einfach zusammenzählen. Die Gewinne werden bei großen Verlagen häufig auch öffentlich gemacht. Aus diesen kann man einen Mittelwert bilden. Und so kommt man auf diese Zahlen.
Es bleiben also durchschnittlich etwa 2.200 Dollar pro Artikel übrig. Was stellen die Verlage damit an?
Seit etwa zehn Jahren investieren die Verlage sehr viel Geld, kaufen verschiedene Technologien und Startups auf. Ziel ist, den gesamten wissenschaftlichen Ablauf abzudecken und zu überwachen: Von der Ideenentwicklung übers Daten sammeln und auswerten, Publizieren, Publikationen auswerten, Forschungstrends antizipieren – also alles von der ersten Idee und der Kooperation mit anderen Kolleg*innen bis hin zum Ende, wenn Institutionen wie Universitäten und Forschungsinstitute auswerten, in welcher Fakultät welche Ergebnisse wie publiziert und präsentiert und zitiert werden. Vom allerkleinsten Anfang bis hin zum großen, aggregierten Ende.
Das klingt sehr umfassend und auch nach Überwachung: Um was für Startups und Technologien handelt es sich da?
2013 beispielsweise hat Elsevier den Referenzmanager Mendeley gekauft, einer der ersten großen Käufe. Ein Referenzmanager verwaltet Literatur. Im Grunde ist das eine Datenbank, in der steht, wer wen zitiert. Elsevier kann also auswerten, wer welche Artikel in Mendeley speichert und liest, und kann entsprechende Daten extrahieren.
Zudem hat Elsevier den Preprint-Server SSRN gekauft. Dort werden Texte publiziert, bevor sie offiziell in den Journals erscheinen. In den Wirtschaftswissenschaften kann das ja Jahre dauern, bis so ein Arbeitspapier als Artikel in einem Journal erscheint. Das heißt, diejenigen, die diese Datenbank haben, können auch Trends vorhersehen und sich gegenüber anderen einen Vorteil verschaffen, etwa gegenüber anderen Universitäten. Sei dieser Vorteil nun monetärer Art, wenn man diese Daten verkauft, oder eben um sich in einer Konkurrenz Vorteile zu verschaffen, wenn es darum geht, den wissenschaftlichen Workflow zu monopolisieren.
In einem Blogpost habe ich kürzlich die Firmen aufgelistet, die die Großverlage aufgekauft haben. Zum Beispiel hat Holtzbrinck, der Mutterkonzern von Springer Nature, Overleaf gekauft: Ein digitales System, bei dem mehrere Autor*innen an einem Text zusammen schreiben und dabei andere Publikationen zitieren können. Und da entstehen auch Daten darüber, was noch nicht publiziert ist, die der Konzern dann auswerten kann. Vielleicht hat ja bereits jede*r Ihrer Leser*innen an Forschungsinstituten mindestens ein solches Werkzeug in Gebrauch, ohne es zu realisieren?
„Denn die Forschung wird so für alle Leute und Organisationen, die rausfinden wollen, wer unliebsame Forschung macht, über finanzielle Mittel zugänglich.“
Was ist problematisch, wenn so ein Verlagshaus so viele verschiedene Technologien besitzt?
Da gibt es mehrere Probleme. Die Marktmacht ist da nur das eine Problem. So ein Verlag kann dann an eine Universität, eine Exzellenzinitative oder an ein Max-Planck-Institut herantreten und sagen: Hier, wir haben ein Paket, mit dem sind Sie alle ihre Sorgen los. Wir kümmern uns um ihre Daten, um Ihren Quellcode, ihre Verwaltungen können rausfinden, welche Mitarbeiter*innen wo was machen und wie erfolgreich sie sind. Wir bieten Ihnen das alles in einem Paket an, mit super Service zum günstigen Preis – der genauso viel kostet wie die Subskriptionen für die Journals, die Sie die ganze Zeit zahlen.
Und wenn man als Institution darauf eingeht und so einen Vertrag abschließt, dann möchte man als Kunde gerne, dass man bei Unzufriedenheit den Anbieter auch wechseln kann. Und das liegt natürlich nicht im Interesse eines solchen Anbieters. Der Anbieter möchte eine Situation haben, wo der Kunde eben nicht mehr wegkann. Das nennt man Kundenbindung …
… oder auch „Lock-in-Effekt“, also eine Situation, in der die Kosten für einen Anbieterwechsel für den Kunden so hoch sind, dass dieser sich genau überlegt, ob es sich lohnt, den Vertrag zu kündigen.
Ja, und wenn diese Kundenbindung so angelegt ist, dass es unmöglich ist zu wechseln, ist es sogar noch besser für die Verlage.
Das nächste Problem ist: Die Wissenschaft ist ja ein grundrechtlich geschützter Bereich. Wenn es nun eine komplette Übersicht darüber gibt, was Wissenschaftler*innen machen und die Verlage die dazugehörigen Daten monetarisieren, wie sie es ja tun, dann gerät die Wissenschaftsfreiheit in Gefahr. Denn die Forschung wird so für alle Leute und Organisationen, die rausfinden wollen, wer unliebsame Forschung macht, über finanzielle Mittel zugänglich.
Man kann sich also mit entsprechenden finanziellen Mitteln Zugang zu allen möglichen wissenschaftlichen Daten verschaffen, welche Forschung gerade geplant wird oder entsteht oder veröffentlicht wird. Die Verlage sind mittlerweile Datenanalyse-Firmen. Das sind nicht mehr Verlage im engeren Sinne, sondern die machen „Data Analytics“, das steht auch überall bei denen groß drauf.
Können Sie ein Beispiel geben, was man mit den Daten machen kann?
Das aus unserer europäischen Sicht noch harmloseste Beispiel ist, dass das Datenbanksystem LexisNexis von Elseviers Mutterkonzern RELX mit dem US-amerikanischen Immigration und Customs Enforcement (ICE) zusammenarbeitet, also der dortigen Bundespolizei- und Zollbehörde. Diese Behörde darf diese Daten, die LexisNexis anbietet, nicht selbst erheben. Dazu bräuchten sie einen Durchsuchungsbeschluss. Aber kaufen dürfen sie die! Es steht nirgends, dass es verboten ist, die Daten zu kaufen, wenn sie erhältlich sind. Nur selbst erheben darf die Behörde sie nicht.
Das heißt ein Verlag wird zum Datenbroker, zu einer Firma, die mit Daten handelt?
Genau, das sind eigentlich Datenbroker. Ein anderes Beispiel ist die Science Foundation in Irland (SFI), eine wissenschaftliche Förderinstitution, so ähnlich wie die Deutsche Forschungsgemeinschaft (DFG). Die SFI vermeldete kürzlich, dass sie sich mit Elsevier zusammengetan haben. Elsevier habe, so die SFI, einen herausragenden Datensatz, der ihnen dabei helfe herauszufinden, in welchen Fächern sie noch besser werden könnten, wie und wo sie schnell Talente abgreifen könnten, bevor jemand anders sie abgreift, um in diesem Markt führend zu werden. Es geht in der Tat darum, dass Irland Daten – unter anderem natürlich auch aus Deutschland – abgreift, um sich gegenüber Deutschland und anderen Ländern besser zu positionieren.
„Das ist nicht nur ein Publikationsproblem, sondern ein regelrechtes Infrastrukturproblem.“
Bei ihrem eigentlichen Kerngeschäft, dem Verlegen von Literatur, haben die Verlage Konkurrenz aus dem Untergrund bekommen: Eines der bekanntesten Beispiele ist die Schattenbibliothek SciHub. Damit verschaffen sich Wissenschaftler*innen Zugriff auf Literatur, die Verlage hinter Paywalls stecken. Was bewirken solche illegalen oder rechtlich zumindest fragwürdigen Angebote?
Es gibt ja nicht nur SciHub, sondern auch verschiedene weitere Möglichkeiten an Artikel zu kommen, die völlig legal sind. Deswegen ich möchte da nicht unbedingt SciHub herausgreifen, auch wenn es schon sehr gut funktioniert.
Ich würde da lieber über „Workarounds“ sprechen, also Wege, um an Paywalls vorbeizukommen. Es gibt jede Menge Technologien, die uns auf die eine oder andere Art und Weise helfen, an Paywalls vorbeizukommen, zum Beispiel die Bibliotheksfernleihe. Die ist völlig legal, darüber komme ich auch ohne ein Abonnement an die Publikationen. Unpaywall wäre ein anderes Beispiel, das ist ein Browser-Plugin, das automatisch Preprint-Server und Open-Access-Repositorien durchsucht.
Es gibt noch weitere solcher Technologien. Aber die sind alle keine Lösung, denn die funktionieren nur retroaktiv, also für Publikationen, die bereits veröffentlicht sind. Die lösen nicht irgendein generelles Problem, sondern nur ein sehr spezifisches Problem, nämlich das des Zugangs.
Können diese Technologien dazu beitragen, die Verlage unter Druck zu setzen und mehr Open Access zu veröffentlichen?
Der Zugang ist nur ein technisches Problem. Die Paywall ist letztlich nur eine Technologie, die uns daran hindert, dass wir freien Zugriff haben. Zugang wird immer gern als ethisches oder finanzielles Problem dargestellt. Aber ganz im Kern ist es ein technisches Problem. Das eigentliche Problem liegt woanders: Nach wie vor gibt es so viel Literatur, an die wir immer noch nicht über die Unis rankommen, außer über Subskriptionen.
Das ist nicht nur ein Publikationsproblem, sondern ein regelrechtes Infrastrukturproblem. Man könnte jetzt sagen: Um das zu lösen, brauchen wir Geld, zumindest für eine Übergangszeit. Das Geld wird momentan aber an Verlage verschwendet, die einen Teil davon einsetzen, um uns zu überwachen. Wir wussten schon vorher, dass das Geld nicht gut investiert ist, aber mit den Erkenntnissen, die ich beschrieben habe, wissen wir noch viel mehr, wie schlecht es ist, dass wir den Verlagen so viel bezahlen.
Das klingt nach einem großen Versäumnis.
Es wird immer deutlicher, dass uns diese ganze Überbezahlung der letzten Jahrzehnte richtig dicke auf die Füße fällt. Dass wir hier seit Jahrzehnten einen Gegner bezahlen, der nicht an der Wissenschaft interessiert ist, sondern nur am Profit. In den letzten zehn Jahren haben wir kollektiv auf der ganzen Welt als wissenschaftliche Gemeinde, ganz grob über den Daumen gepeilt, etwa 100 Milliarden Dollar für ein Verlagswesen ausgegeben, das wir eigentlich gar nicht mehr nötig haben.
Das Hauptproblem war, dass die Universitäten die teuren Abonnements nicht canceln können, weil sonst die Wissenschaftler*innen nicht weiterarbeiten können. Hauptsächlich diese Kundenbindung hat die Verlage so mächtig gemacht. Wir hätten während der letzten fünf bis zehn Jahre tatsächlich diese ganzen Abonnements abbestellen können und mit dem vielen, vielen Geld sehr schnell ein paar Komponenten kaufen können, um eine alternative Struktur aufzubauen.
„Die Verlage waren der Wissenschaft immer einen Schritt voraus – oder eigentlich hundert.“
Kommen wir zum Schluss noch auf das „Projekt DEAL“, das Vertragskonstrukt zwischen den deutschen Wissenschafts-Organisationen und den drei großen Verlagen Elsevier, Springer Nature und Wiley. DEAL wurde 2014 ins Leben gerufen, die Hochschulrektorenkonferenz (HRK) ist federführend. Zentraler Baustein von DEAL ist eine Vergütung nach Publikationsvolumen, die sogenannte „Read-and-Publish“-Vereinbarung.
Kürzlich versandte die HRK gemeinsam mit der Max-Planck-Gesellschaft (MPG) einen Brief an die Direktor*innen der Universitätsbibliotheken. Darin fordern sie die Hochschulleitungen zu einer „baldigen Anpassung der Zahlungsströme“ auf. Was soll das bedeuten?
Dieser Brief existiert, weil man bei DEAL offensichtlich nicht darüber nachgedacht hat, dass eine Umwandlung nach Publikationsvolumen im Zuge des DEAL-Projekts natürlich die gesamten Bezahlströme ändert: Denn die wenig publizierenden Fachhochschulen müssen dann wenig oder nichts mehr bezahlen. Und die Universitäten, die besonders viel publizieren, müssen fast alles bezahlen. Die Unis stemmen also die finanzielle Hauptlast, die sich vorher auf alle Institutionen mit Abonnements verteilt hat.
Das hat die HRK bei den Verhandlungen einfach nicht bedacht. Und in dem Brief fordern HRK und MPG nun richtig viel Geld und Unterstützung für die forschungsstarken Universitäten, weil sonst DEAL nicht mehr funktioniert. Das ist eine Implementierung, die eine Katastrophe ist! Wenn man das vorher bedacht hätte, gäbe es diesen Brief gar nicht, dann wäre schon früher eine bessere Lösung als DEAL entwickelt worden. Und das ist sehr peinlich.
Das heißt, mit DEAL haben sich die Probleme verschärft?
Die Abonnement-Verträge vor DEAL waren schon schwer kündbar, aber mit der „Read-and-publish“-Vereinbarung durch DEAL sind sie noch viel schwerer zu kündigen geworden! Denn es ist klar: Die Wissenschaftler*innen werden einen viel größeren Aufstand machen, wenn sie aufgrund eines nicht verlängerten Vertrags nicht mehr publizieren können, als wenn sie aufgrund eines nicht verlängerten Vertrags nicht mehr lesen können.
DEAL reduziert also die Kosten nicht, die Verlage können weiter investieren, und das Geld aus der Wissenschaft nehmen und gegen die Wissenschaft einsetzen. Das ist ein Open Access nach dem Motto „koste es, was es wolle“.
Und es zeigt den Unterschied zwischen den Verlagen und der wissenschaftlichen Gemeinschaft: Die Verlage haben früh das wirtschaftliche Potential der Digitalisierung erkannt und realisiert, dass sie sich diversifizieren müssen: Akademische Texte zu publizieren und zugänglich machen – das trägt nicht mehr als alleiniges Geschäftsmodell.
Die Verlage waren der Wissenschaft immer einen Schritt voraus – oder eigentlich hundert. Und die Wissenschaft arbeitet sich heute immer noch am gleichen Open-Access-Problem ab, das wir seit 30 Jahren haben und obwohl es ja durch die Workarounds seit mittlerweile gut acht bis neun Jahren komplett an Relevanz verloren hat.
iRights.info informiert und erklärt rund um das Thema „Urheberrecht und Kreativität in der digitalen Welt“.
Wir sind auch in den Sozialen Medien zu finden: Folgen Sie uns auf Twitter, Facebook, Telegram, LinkedIn oder Mastodon!
Sie möchten uns unterstützen? Das geht ganz einfach über die Spendenplattform Betterplace!
Was sagen Sie dazu?