Die klinische Studie: Meisterwerk der Manipulation

27. Juli 2017
Teilen

Ärzte sollten die neuesten klinischen Studien aus ihrem Fachgebiet kennen. Doch bei der Flut an neuen Publikationen ist es schwierig, den Überblick zu behalten. Ist jede Lancet-Studie auch eine gute Studie und wie findet man das heraus?

„Ein praktizierender Arzt, der im 21. Jahrhundert nicht in der Lage ist, eine Studie kritisch zu lesen, ist genauso unvorbereitet, wie ein Arzt, der keinen Blutdruck messen oder nicht das Herzkreislaufsystem untersuchen kann.“ Vor knapp zehn Jahren schon forderte Paul Glaziou, Professor für Evidence based Medicine in Oxford im British Medical Journal von Klinikärzten die Fähigkeit, Studien in der Fachliteratur selbst lesen zu können. Aber Hand aufs Herz: kann jeder Arzt seinem Patienten erklären, was „die zu gering gepowerte mehrarmige randomisierte Doppelblind-Studie im Crossover-Design“ für die Behandlung seiner Krankheit bedeutet? 

Bei der bekanntesten Datenbank für registrierte klinische Studien clinicaltrials.gov sind zur Zeit rund 250.000 Studien verzeichnet und ca. 43.000 in der „Rekrutierungsphase“. Diese stehen also am Beginn. Immer wieder schaffen es auch schlecht durchgeführte Studien in renommierte Zeitungen – allein wegen eines „sensationellen“ Ergebnisses. Gut ausgebildete Mediziner sollten dann aber in der Lage sein, sich die Originalpublikation zu beschaffen, um dort Methoden und Ergebnisse zu überprüfen und einzuschätzen. Die nachfolgenden Punkte können ihm dabei helfen.

1. Was wird untersucht? – Studientypen

Geht es darum, einen Zusammenhang aufzuklären, Risikofaktoren zu finden oder um Ursache und Wirkung?
Beobachtungsstudien greifen nicht in den Körper des Patienten ein. Darunter fallen:

  • Querschnittsstudien analysieren eine Stichprobe aus der Bevölkerung zu einem bestimmten Zeitpunkt im Hinblick auf ein Verhalten, eine Krankheit oder eine Eigenschaft.
  • Fall-Kontrollstudien sind retrospektiv. Sie schauen zurück und analysieren den Zusammenhang zwischen zwei Ereignissen einer bestimmten Patientengruppe. Eine Kontrollgruppe soll dafür sorgen, dass das Ergebnis auch wirklich beweiskräftig ist.
  • Kohortenstudien sind Longitudinalstudien: Sie beobachten eine bestimmte Gruppe über längere Zeit und beobachten, mit welcher Häufigkeit bestimmte Ereignisse eintreten. Auch daraus lassen sich Zusammenhänge zwischen verschiedenen Ereignissen herleiten.

Randomisierte kontrollierte Studien (RCT) erlauben anders als bei Beobachtungsstudien Aussagen über Auslöser und Wirkung. Diese experimentellen Studien – typischerweise Arzneimittelstudien – vergleichen die Wirkung des Eingriffs mit einer möglichst ähnlichen Vergleichsgruppe zufällig zugeordneter Patienten ohne diesen Parameter. Diese Königsdisziplin klinischer Studien ist jedoch mehr als andere anfällig für Fehler. Ihr Ergebnis ist dann je nachdem ein schwacher Hinweis oder ein starker Beweis für die zuvor aufgestellte These.

2. Ist die Studie für mich interessant? – Die Einleitung

Warum der ganze Aufwand? Schon die Einleitung verrät, ob die Studie wirklich Neues bringt oder ob sie nur irgendein Ergebnis eines Tests kommuniziert. Die persönliche Checkliste für die Prüfung:

  • Ist die Frage für meine ärztliche Praxis überhaupt relevant?
  • Ist die Versuchsplanung dazu geeignet, die Hypothese des Autors zu beweisen? Oder wurde versucht, anhand der Ergebnisse eine beweisbare Hypothese aufzustellen – frei nach dem Motto: Zuerst schießen und dann die Zielscheibe aufmalen.
  • Sind die in der Studie angegebenen Endpunkte wirklich entscheidend für den Therapieerfolg? Bei onkologischen Studien entscheidet die Überlebenszeit letztendlich über den Therapieerfolg. Ersatzendpunkte (Surrogat-Endpunkte) wie etwa “progressionsfreies Überleben“ korrelieren nicht immer mit dem Gesamtüberleben. Auch Krankheitsmarker liefern nicht jedes Mal ein zuverlässiges Abbild für das Fortschreiten der Krankheit. Studien, in denen der entscheidende Therapieerfolg ebenso wie der Ersatzendpunkt untersucht wurde, zeigen den Zusammenhang klar auf.

3. Per Abkürzer zum Ziel? – Methoden

Nicht immer lassen sich gute Hypothesen mit einem Minimum an Aufwand beweisen. Der Methodenteil verrät mögliche Tricksereien:

  • Wie wurden die entsprechenden Teilnehmer ausgewählt?
  • Wurde ein Votum der Ethikkommission eingeholt?
  • Nach welchen Kriterien wurden Teilnehmer eingeschlossen oder im umgekehrten Fall ausgeschlossen? Oder sorgten die ausgeschlossenen Teilnehmer dafür, dass das Ergebnis nach Wunsch ausfällt?
  • Reicht die Zahl der Patienten aus, um einen Effekt signifikant nachweisen zu können? Ein Artikel in Nature Reviews Neuroscience aus dem Jahr 2013 wies nach, dass nur 21 Prozent aller neurologischen Studien und lediglich 8 Prozent aller fMRT-Studien ausreichend munitioniert waren, um ein Ergebnis statistisch eindeutig zu beweisen.

Eine gute Studie ist ergebnisoffen. Deswegen kommt es bei der RCT ganz besonders auf die Randomisierung (zufällige Verteilung der Teilnehmer auf Behandlungs- und Kontrollgruppe) und die Verblindung von Patient, Behandler und Auswerter an:

  • Ist die Methode bei der Randomisierung genau beschrieben?
    Kann sie dafür sorgen, dass in beiden Gruppen vergleichbare Versuchsvoraussetzungen herrschen?
  • Ist die Studie doppelt verblindet? Weiß auch der Arzt nicht, ob er seinen Patienten mit einem Placebo oder der Prüfsubstanz behandelt?
  • Ist auch die Auswertung der individuellen Patientendaten verblindet?
  • Kann der Patient aus dem Versuchsablauf schließen, zu welcher Gruppe er gehört?

Bei einer Cross-over-Studie werden Kontroll- und Prüfgruppe nach einiger Zeit getauscht. Zumindest kurzfristige Effekte sollten dann in beiden Gruppen reproduzierbar sein. Generell gilt: Je ähnlicher sich Kontrolle und Fallgruppe sind, desto aussagekräftiger sind die Daten. Im Idealfall unterscheiden sie sich nur im untersuchten Merkmal.

Das gilt auch für Beobachtungsstudien: Ein Arzt, der etwa wissen möchte, welche Risikofaktoren zu einer seltenen Krankheit beitragen, vergleicht dabei möglicherweise eine Population von Patienten aus einem großen Einzugsbiet mit einer regional eng begrenzten Kontrolle. In vielen Punkten dürften sich dann die beiden Gruppen unterscheiden, ohne dass sich daraus Schlüsse zur untersuchten Krankheit ziehen lassen.

  • Eine wichtige Information für den kritischen Studienleser ist die Zahl der Abbrecher: Ist sie in beiden Gruppen etwa gleich groß und im Vergleich zur Gesamtzahl so klein, dass sie keinen Einfluss auf das Ergebnis hat? Je nachdem ob diese Abbrecher in das Ergebnis mit einfließen oder außen vor bleiben, sprechen klinische Studienspezialisten von „Intention to treat“ oder „per protocol“. Letzteres sorgt für eher verfälschte Resultate.

4. Mehr Schein als sein? – Ergebnisse

Sind die Ergebnisse nur mittelmäßig, sollen aber so aussehen, als brächten sie echten Mehrwert? Gezieltes Weglassen von Informationen und Formatieren der Daten sind manchmal wie Nebelkerzen:

  • Relative Angaben können den Effekt einer Therapie verschleiern. Würde etwa eine neue Therapie bei Osteoporose eine 50-prozentige Risikoreduktion von zwei Prozent auf ein Prozent bewirken, bedeutet das, dass 100 Patienten mehrere Jahre behandelt werden müssten, um einen Knochenbruch zu verhindern.
  • „Wieviele Ereignisse müssten wegfallen, um den Effekt aufzuheben? Sind das nur wenige – oder gar in der Größenordnung der aus der Studie ausgeschiedenen – dann sollte der Leser das Ergebnis kritisch beurteilen.
  • Mehrere Stellen hinter dem Komma deuten oft auf eine Genauigkeit der Messung hin, die es nicht gibt und sind nur das Ergebnis mathematischer Operationen . Erst wenn die Streubreite der Ergebnisse ersichtlich ist, lässt sich auf die Präzision schließen.

5. Verkaufstaktische Argumente? – Diskussion

Ziehen die Autoren aus den Resultaten die richtigen Schlüsse? Hier sollte nicht nur etwas über die Beweiskraft der Ergebnisse stehen, sondern auch ein kritischer Blick auf folgende Punkte:

  • Schwächen der Untersuchung
  • Gibt es andere mögliche Schlussfolgerungen?
  • Weist der Autor darauf hin, dass weitere Untersuchungen das Ergebnis bestätigen müssen?
  • Lassen die Ergebnisse kausale Schlüsse zu? Oder gibt es Störfaktoren (Confounder), die das Ergebnis verzerren? Wer zum Beispiel den Zusammenhang zwischen Kaffeetrinken und koronarer Herzkrankheit untersucht, sollte den Störfaktor Rauchen (viele Kaffeetrinker sind starke Raucher) in seine Analyse miteinbeziehen.
  • Was ist der mögliche Nutzen einer neuen Therapie, die in der Studie getestet wurde? Welchen Patientengruppen würden davon profitieren?
  • Stimmen die Ergebnisse dieser Versuchsreihe mit denen aus früheren Studien überein? Wie lassen sich die Unterschiede erklären?
  • Stichwort Disease Mongering: Wird mit den Ergebnissen der Studie auf eine Therapie einer Krankheit hingewiesen, die möglicherweise gar nicht behandlungsbedürftig ist? Für die meisten Erkältungsbeschwerden braucht es keine Antibiotika.

Im Anhang sollte der Arzt noch auf mögliche Interessenkonflikte hinweisen. Könnte sich eine zu starke Verbindung zur Industrie auf die Berichterstattung auswirken?

6. Die Masse machts (nicht immer) – Metaanalysen

Wer sich aus den Ergebnissen einer einzigen Studie Hinweise für die Behandlung seiner Patienten erwartet, sollte immer bedenken, dass erst die gesicherte Wiederholung durch andere Wissenschaftler den Ergebnissen Sicherheit verleiht. Ist es demnach besser, sich auf Metaanalysen oder Cochrane-Reviews zu stützen?
Nicht immer. Oft vermischen sich auch hier Studien mit guter und minderer Qualität.

Eine vierstufige GRADE-Bewertung unterstützt die Review-Experten inzwischen bei der Erstellung von Leitlinien entsprechend der vorliegenden Studien. Aber selbst eine solche Einteilung hilft nicht immer gegen den „Publication Bias“. Manuskripte mit überraschenden und ganz neuen Daten haben eine wesentlich bessere Veröffentlichungs-Chance in einem hochrangigen Fachjournal als Wiederholungsstudien oder solche mit guter Studienkonzeption, aber ohne eindeutigem Ergebnis. Misslungene Wirkstofftests bleiben häufig in der Schublade.

Regelmäßiger Austausch mit Experten ist deswegen genauso wichtig wie kritisches Lesen von Studiendaten.

Der Autor hat weitere interessante Fundstellen im Netz zum kritischen Lesen von Studien zusammengetragen. Diese finden Sie, thematisch sortiert, hier.

72 Wertungen (4.86 ø)

Die Kommentarfunktion ist nicht mehr aktiv.

24 Kommentare:

dipl. med. Rainer Hansen
dipl. med. Rainer Hansen

Die Ergebnisse von doppel-blind-randomisierten u.ä. Studien mit 70-80% igen positiv bekräftigten Postulaten oder verbesserten Wirkungen gegenüber Placebo ist natürlich eine tolle Sache (ein ordentliches Design mal vorausgesetzt) – bedient aber eigentlich nur die Katastrophenmedizin, d.h. der Massenanfall von mehr oder weniger gleichartigen Verletzungen oder Schädigungen mit dem Therapieziel so viele Betroffene wie möglich zu retten, d.h. am Leben zu halten. Das entspricht nicht unbedingt der täglichen medizinischen Praxis nach der individuell bestmöglichen Therapie. Zumal ja auch die Frage besteht, ob der konkrete Patient nicht vielleicht zu den 20 oder 30% gehört, die sowieso nicht von der Behandlung entsprechend des Studienergebnises (und der evtl. daraus abgeleiteten Richtlinien) profitieren kann.
Nur mal so als praktischen Gedanken ausserhalb der juristischen Relevanz.

#24 |
  0
Dr. med. Volker Perlitz
Dr. med. Volker Perlitz

Sehr geehrter Herr Dr. Lederer,
sehr gehrte Kolleginnen & Kollegen,

in folgenden hochrangigen Publikationen wurde sich der sehr relevanten Thematik konstruktiv gewidmet:

The Lancet, Volume 365, Issue 9453, Pages 82 – 93, 1 January 2005
doi:10.1016/S0140-6736(04)17670-8

The Lancet, Volume 365, Issue 9454, Pages 176 – 186, 8 January 2005
doi:10.1016/S0140-6736(05)17709-5

The Lancet, Volume 365, Issue 9455, Pages 256 – 265, 15 January 2005
doi:10.1016/S0140-6736(05)17746-0

Dem habe ich wenig hinzuzufügen.

#23 |
  0
Medizinjournalist

Hier ist der versprochene Link: http://dx.doi.org/10.1056/NEJMra1614394

#22 |
  0
Meta-Anna-Lysis
Meta-Anna-Lysis

Herr Kollege Lederer, sehnsüchtigst warte ich auf den von Ihnen geposteten Link und freue mich schon jetzt ob noch grösserer Verwirrungen die Sie stiften werden, gell.

Höchstachungsvoll Ihre sich in Auflösung befindliche

Meta-Anna-Lysis

#21 |
  1
Medizinjournalist

Vorinformation: Nächsten Donnerstag wird im New England Journal ein großer Review Artikel genau zu dem Thema erscheinen: Grenzen und Validität von klinischen Studien: Jenseits von RCT. Sobald er online ist, werd ich den Link hier posten.

#20 |
  2
Medizinjournalist

#17
Ich sehe das nicht so negativ. Wer mit Zahlen hantiert, manipuliert doch immer. Für mich ist jede Aussage aufgrund von Zahlen eine Interpretation von Daten. Manipulation im negativen Sinn ist es für mich nur dann, wenn man die Rechenoperationen so durchführt, dass damit einbestimmtes Ziel erreicht werden soll.
Und Misstrauen per se ist ja auch nicht so schlecht. Umso besser, wenn danach rauskommt, dass alles ok ist.

#19 |
  2
Gast
Gast

Wir wissen doch aber alle, dass der Mediziner der Neuzeit kein Wissenschaftler mehr ist, was bei dem “work load” nun auch wahrlich nicht zu erwaren wäre. Um so unglaubwürdiger wird das pseudo-wissenschaftliche Getue vieler.

#18 |
  5
Dipl.-Chem. Heiko Sülberg
Dipl.-Chem. Heiko Sülberg

In der Überschrift wird die klinische Studie pauschal als “Meisterwerk der Manipulation” verdammt – wie soll dann zukünftig Erkenntnisgewinn in der Medizin stattfinden? Die unten stehenden Kommentare zeugen ja zu einem erheblichen Teil von einem starken Misstrauen.

#17 |
  2
Gast
Gast

Wie sagt man doch: Traue keiner Studie, die du nicht selbst gefälscht hast.

#16 |
  7
Gast
Gast

Mein Eindruck: In der Medizin wird die Zahl der Papers als wichtiges Erfolgskriterium gewertet. Leider. Die Qualität sollte aber vor Quantität gehen.

#15 |
  2

Meine Uni-Erfahrungen: 2/3 der Studienergebnisse und der wiss. Studien sind verfälscht oder gefälscht. Die Interessen der Industrie und der Durchführenden (publish or perish) sind leider zu einseitig. Objektivität hat keine Chance.

#14 |
  5
Martina Grüter
Martina Grüter

Mediziner haben einen ausführlichen Kurs zu klinischen Studien und Biomathematik, die auch ganz nett die Statistiken erklären (und prüfen)… Ob da die Psychologen nicht ein Bias in ihrer Wahrnehmung haben ;) …
Man sollte schon unterscheiden ob es Studien vor der Zulassung sind oder spätere Phasen. Wieder mal wird alles in einen Topf geschmissen. Geplante klinische Studien und die Studien, die mal für eine Diss/Habil aufgesetzt wird.
Meine Erfahrung bei neuropychologischen Studien (wir nehmen mal die Probanden, die Ausreißer sind raus) echt witzig und nicht einmalig erlebt….

#13 |
  3

Psychologen werden weltweit in Statistik, Experimentaldesign und Testtheorie ausgebildet.
Und das schon seit den sechziger Jahren.

Meines Wissens würden so gut wie alle Psychologen der Medizin und den Medizinern zumindest eine einsemestrige Einführung in das wissenschaftliche Arbeiten wünschen, da uns bei der Lektüre medizinischer Arbeiten nicht selten die Haare zu Berge stehen.

#12 |
  6

#1 Das IQWIG ist auch keine sichere Bank:
Kürzlich musste es sich mit einer zahnmedizinischen Fragestellung zur Wirksamkeit der Behandlungsmethoden der Parodontitis auseinandersetzen. Diese Behandlungen sind prinzipiell nicht verblindbar, da der Patient immer merkt, ob an seinen Zähnen geschabt und geschnitten wird. Eine Placebo-oder Scheinbehandlung ist schlicht nicht möglich (käme wohl auch durch keine Ethikkommission). Lediglich die Untersucher können verbindet werden bezüglich der stattfundenen Therapie. Deshalb gibt es keine RCT und auch keine Metaanalysen von RCT. Daraus schließt das IQWIG nun messerscharf, dass es keinen Hinweis auf die Wirksamkeit der Behandlungsmodalitäten gibt, da Studien des höchsten Evidenzgrades fehlen und die in Massen vorhandenen Studien geringerer Evidenzgrade einfach für eine Beurteilung nicht herangezogen werden…. Faszinierend, wie Jahrzehnte mühsamer klinischer Studienarbeit mit einer Handbewegung als irrelevant vom Tisch gewischt werden. Ich nehme an, dass auch in der Chirurgie ein eklatanter Mangel an RCT herrschen dürfte, die derzeitigen Therapiestandards also im Sinne de IQWIG als unbewiesene Expertenmeinungen zu werten sein dürften.
Für mich ist seitdem das IQWIG keine ernst zu nehmende Instanz mehr.

#11 |
  1
Medizinjournalist

#5 Ich teile ihre Ansicht nicht. Ich habe diesen Satz aus einem Artikel von Paul Glaziou im British Medical Journal 2008 entnommen ( http://discovery.ucl.ac.uk/48124/1/48124_Evidence%20based%20medicine%20and%20the%20medical%20curriculum_2008.pdf ), in dem es darum geht, die Werkzeuge der Evidence Based Medicine auch in die Ausbildung der zukünftigen (und Weiterbildung der jetzigen) Ärzte zu bringen. Ich halte ihn nicht für eine Plattitüde sondern für eine plastische Darstellung neuer Lehrplaninhalte.

#10 |
  0

Sehr viele Studien arbeiten nach einem immerwährenden Grundprinzip:
1. Zunächst wir eine waghalsige Hypothese ausgeworfen (z. B. Schlafmittel erhöhen die Mortalität).
2. Dazu werden erkenntnistheoretisch dünne retrospektive Metaanalysen bemüht.
3. Die Forderung nach noch gar nicht durchgeführten prospektiven Studien im RCT-Design (“randomised controlled trial”) werden erhoben, um Forschungsgelder zu generieren.

So hatten Anwender von Hypnotika einer Kohortenstudie in BMJ Open (2012; 2: e000850) zufolge ein deutlich erhöhtes Sterberisiko. Auch Krebserkrankungen traten bei ihnen häufiger auf. Die Frage der Kausalität blieb allerdings offen.
Der Emeritus Daniel Kripke vom Scripps Clinic Sleep Center in La Jolla/Kalifornien et al. hatte die Daten eines US-Versicherers retrospektiv ausgewertet und 10.529 Anwender von Hypnotika der doppeltem Zahl von Nichtanwendern gleichen Alters und Geschlechts gegenüber gestellt. Die Ergebnisse sind beeindruckend: Während einer Nachbeobachtungszeit von nur 2,5 Jahren gab es unter den Anwendern der acht am häufigsten verwendeten Schlafmittel signifikant mehr Todesfälle.
In ihren Schlussfolgerungen fordern die drei Autoren eine (prospektive) randomisierte klinische Studie mit ausreichender Dauer und Größenordnung („A randomised clinical trial of sufficient duration and size”). Denn nur diese könnte definitive Evidenz f ü r oder g e g e n die beunruhigenden Mortalitätsrisiken ergeben, welche in ihrer Studie postuliert wurden („could provide definitive evidence for or against the disturbing mortality hazards suggested by our study”). Und so lange ethische Bedenken g e g e n randomisierte Studien zur Letalität von Hypnotika vergleichbar mit prospektiven Studien zur Mortalität bei Rauchern/Nichtrauchern oder Fallschirmspringen mit und ohne Fallschirm vernünftigerweise bestehen würden, sei man auf retrospektive Daten aus reinen Beobachtungen angewiesen („No such trial has ever been mounted, perhaps for reasons similar to the absence of randomised trials of cigarettes and of skydiving without parachutes.” …”we must be guided by observational data …”).
Bestätigt wird noch einmal die Assoziation zwischen erhöhter Mortalität und Hypnotika-Gebrauch („Excess mortality is associated with hypnotic use“). Aber gleichzeitig wird auch zu bedenken gegeben, dass Hypnotikaanwendungen mit höherer und vermehrter Krankheitsprävalenz einher gehen als bei Nicht-Anwendern b e v o r sie Schlafmittel einfordern (“Hypnotic users had more prevalent disease of many sorts than non-users before hypnotics were ordered.”).
Und da liegt “der Hase im Pfeffer: Die möglicherweise fehlende Kausalität hat mit der suspekten Koinzidenz zu tun, welche die Untersucher selbst publizieren. Die Gruppe der Patienten m i t Hypnotika war nämlich mit relativem Risiko wesentlich häufiger chronisch krank und multimorbider als die Vergleichsgruppe o h n e zusätzliche Schlafmittel („Table 2 Comorbid diagnoses of non-users and users of hypnotics [percentages of total group]” Kripke DF, Langer RD, Kline LE. BMJ Open 2012;2:e000850.).
• Asthma war 71,2 Prozent häufiger (6,6% versus 11,3%)
• cerebrovaskuläre Krankheiten 63,2 Prozent häufiger (3,8% versus 6,2%)
• Koronare Herzkrankheit 54,3 Prozent häufiger (9,4% versus 14,5%)
• chronische Nierenerkrankungen 88,9 Prozent häufiger (0,9% versus 1,7%)
• COPD 65,5 Prozent häufiger (5,5% versus 9,1%)
• kardiovaskuläre Krankheiten allgemein 51,8 Prozent häufiger (14,1% versus 21,4%)
• Diabetes mellitus 22,6 Prozent häufiger (14,6 versus 17,9)
• Herzfehler 106 Prozent häufiger (3,2% versus 6,6%)
• Hypertonie 14,1 Prozent häufiger (37,5% versus 42,8)
• Übergewicht 56,7 Prozent häufiger (6,7% versus 10,5%)
• Reflux/peptische Erkrankungen 86 Prozent häufiger (15,0 versus 27,9%)
• PAVK 85 Prozent häufiger (2,1% versus 3,9%)
Eine Demenz war mit 0,6 Prozent in beiden Gruppen gleich selten.
Und dass sich, wie am Ende der Schlussfolgerungen erwähnt, ein Konsens entwickeln könne, nach dem kognitive Verhaltenstherapie bei chronischen Schlafstörungen erfolgreicher als Hypnotika sei („A consensus is developing that cognitive-behavioural therapy of chronic insomnia may be more successful than hypnotics”), ist weder durch große retrospektive Beobachtungen noch durch prospektive randomisierte Studien belegbar.

Quelle: http://bmjopen.bmj.com/content/2/1/e000850
“Hypnotics’ association with mortality or cancer: a matched cohort study” von Daniel F Kripke, Robert D Langer, Lawrence E Kline

#9 |
  2
Gast
Gast

Eine generelle Verzerrung ist mir bei Studien aufgefallen, nämlich die frage, wen die teilnehmenden Institutionen einschließen. So habe ich z.B. sehr fleißig für eine onkologische Interventionsstudie Patienten eingeschlossen, bis mein Chef meinte, daß es jetzt erst einmal genug sei und man ja nicht alle infrage kommenden Patienten einschließen müsse. Ergo: Es gibt sicherlich des öfteren seitens der teilnehmenden Zentren eine Vorselektion, wer studienfähig ist (weil freundlich, verständig usw. usf.) und wer nicht (weil kompliziert, überkritisch, einfach strukturiert).

#8 |
  1
Gast
Gast

Sehr gute Darstellung. Ich bin selber einmal Zeuge der ” Bearbeitung” einer Studie geworden. Die vielen, hier aufgezeigten Parameter machen es leicht quasi jedes gewünschtes Ergebnis zu produzieren.

#7 |
  2
Gast
Gast

#2: Irrtum, das wird im Medizinstudium sehr wohl gelehrt! Wenn auch in deutlich geringerem Umfang als im Psychologiestudium, das stimmt.
Ihre Frage ist schnell beantwortet: Ethikkomission.

#6 |
  2
Gast
Gast

„Ein praktizierender Arzt, der im 21. Jahrhundert nicht in der Lage ist, eine Studie kritisch zu lesen, ist genauso unvorbereitet, wie ein Arzt, der keinen Blutdruck messen oder nicht das Herzkreislaufsystem untersuchen kann.“ Ein typischer Satz der zur Medizin passend gerückt wurde und deshalb so wenig aussagt, denn aus dem Vergleichen von banalen mit komplizierten Dingen stammt zwar Erkenntnis, aber noch nie eine gute. Solche in Worte gefasste Plattitüden sollten entfallen, denn sonst hält man sich nach wie vor an nächster Oberflächlichkeit auf.

#5 |
  14
Stefan Sieh
Stefan Sieh

Sie schreiben “viele Kaffeetrinker sind starke Raucher”? Das dürfte zu beweisen sein. Aus welcher Studie geht das denn hervor? Klingt eher nach einer Verallgemeinerung für mich.
Mit freundlichen Grüßen
Stefan Sieh

#4 |
  4
Medizinjournalist

#2 Danke für das Kompliment.
Trotzdem verstehe ich nicht ganz, was Sie meinen. Wollen Sie ein Ebola-Vakzin doppelblind mit Placebo-Kontrolle testen?

#3 |
  1
Gast
Gast

Sehr guter Artikel. Interessanterweise ‘quält’ man den Psychologie Studenten (zumindest an der Uni Würzburg) exessiv mit dem Thema Statistik u Methodenlehre. Stellt sich die Frage warum werden Medizin Studenten nicht entsprechend geschult?
Und was ich mich viel öfter frage, warum erfüllen die Studien der Impfindustrie, nicht den wissenschaftlichen Standard, der Doppelblind-Placebo-Methode?
Ich kann nur jedem empfehlen, keiner Studie pauschal zu trauen, solange nicht Rohdaten u Design gecheckt sind.
MfG

#2 |
  11

Eine Fundgrube sind die Berichte des IQWiG. Dort wurde bspw. nachgewiesen, dass der in einer Arbeit im Lancet 2012 festgestellte Zusatznutzen von Linagliptin nur auf der höheren Hypoglykämierate durch forcierte Blutzuckersenkung in der Kontrollgruppe resultiert. https://www.iqwig.de/de/presse/pressemitteilungen/pressemitteilungen/linagliptin-erneut-keine-belege-fur-zusatznutzen.3101.html

#1 |
  7


Copyright © 2017 DocCheck Medical Services GmbH
Sprache:
DocCheck folgen: