"What we call 'normal' is a product of repression, denial, splitting, projection, introjection and other forms of destructive action on experience. It is radically estranged from the structure of being. The more one sees this, the more senseless it is to continue with generalized descriptions of supposedly specifically schizoid, schizophrenic, hysterical 'mechanisms.' There are forms of alienation that are relatively strange to statistically 'normal' forms of alienation. The 'normally' alienated person, by reason of the fact that he acts more or less like everyone else, is taken to be sane. Other forms of alienation that are out of step with the prevailing state of alienation are those that are labeled by the 'formal' majority as bad or mad." 

R. D. Laing, The Politics of Experience

lørdag den 28. august 2010

STAR*D: Studien der viser, at antidepressiva er virkningsløse

STAR*D er en 35 millioner-dollar-studie, iværksat af NIMH (National Institute of Mental Health, under NIH - National Institute of Health - den øverste US-amerikanske sundhedsmyndighed) for at undersøge effekten af antidepressiva på "depression". Studien var med 3.671 deltagere og en løbetid på et år et forholdsvis stort anlagt forsøg. Resultaterne blev offentliggjort i 2006, og det kan siges, at STAR*D sidenhen på internationalt plan, og også her i Danmark, har været den studie, fortalerne for psykofarmakologisk "behandling" af "depression" har henvist til, for at underbygge deres påstand om, at antidepressiva skulle være effektiv behandling mod "depression". Således citerer for eksempel Per Vestergaard, overlæge ved Psykiatrisk Hospital, Risskov, STAR*D-studien i en artikel i Best Practice fra 2009: "En tredjedel af patienterne gennemgik alle fire behandlingsperioder over et år uden fuldstændig remission."

Resutaterne af STAR*D-studien blev interpreteret til at vise, at 67% (altså to tredjedele) af alle "patienter" med "depression" opnår bedring gennem "behanding" med antidepressiva.

Robert Whitaker har gjort, hvad alle, i det mindste alle professionelle på området, Per Vestergaard for eksempel, burde gøre, før der, mere eller mindre blindt, stoles på en interpretation af videnskabelige data: han har set på studiens data selv. Og fundet frem til, at disse taler et noget anderledes sprog, end deres officielle interpretation: ud af 3.671 deltagere er der 108, der har opnået over de 12 måneder, studien varede, vedvarende bedring. Det er 3 (TRE, ja)% af deltagerne, der har opnået vedvarende bedring af deres "depression" gennem brug af antidepressiva. Der er lang vej fra 3% til de 67%, den officielle interpretation af studiens data kommer frem til. Såpas lang vej, at man vist godt kan sige, at den studie, der internationalt anses til at have bevist antidepressivas effektivitet og overlegenhed over placebo, faktisk har bevist det modsatte. Nemlig at "behandling" af "depression" med antidepressiv "medicin" er virkningsløs.

Per Vestergaard udtrykker i artiklen i Best Practice nærmest bekymring over, at, ifølge den officielle interpretation, en hel tredjedel af deltagerne i STAR*D-studien ikke opnåede vedvarende bedring. Jeg undrer, hvad han mon ville udtrykke i dag, hvor det, grundet den opmærksomhed, STAR*D-studien på det seneste har fået i de amerikanske medier, heller ikke længere burde være ham ubekendt, at det faktisk drejer sig om 97%, og ikke kun en tredjedel, af personer stemplet med "depression",der ikke har haft varigt gavn af antidepressiva.

Og når jeg tagger dette indlæg med "kreativitet", så er det, fordi "STAR*D-skandalen" også viser, at man med lidt kreativitet nemt kan få videnskabelige data til at "bevise" hvad som helst. Om denne form for kreativitet imidlertid er specielt videnskabeligt, er et andet spørgsmål.
_______________

Blogindlæg af Robert Whitaker om STAR*D:
"Fact-Checking the New Yorker"
"Fact-Checking the New Yorker, Part Two"
"Update on the STAR*D Report"
"The STAR*D Scandal: A New Paper Sums It All Up"

6 kommentarer:

Anonym sagde ...

Interessant at se hvordan undersøgelsens faktiske data gennem flere trin systematisk blev tolket ud fra en præmis om at "det her hjælper" med mindre klare data peger modsat.

Det var formodentlig ikke en hensigt om at forvride, snarere at en udpræget déformation professionnelle blokerede for at se kritisk på egne præmisser.

Og dat er da også alt for nemt at "komme til" at omfortolke data ud fra egne antagelser. F.eks. vil jeg tillade mig at pointere at når det kommer frem at data kun dokumenterer at 3% var i vedvarende bedring efter behandlingen, betyder det ikke at 97% ikke fik det bedre.

Det må nemlig antages at nogle som har fået det bedre, om det nu kan tilskrives medicinen eller ej, er blandt dem som droppede ud undervejs. Uden yderligere data vil det ikke være realistisk at gætte på hvor mange - ligesom det heller ikke er realistisk når undersøgelsen anslog at dem som droppede ud undervejs ville have fået tilsvarende resultater som resten.

I det hele taget ligger der en betydelig selection bias i at deltagerne havde mulighed for vælge om de gad fortsætte i undersøgelsen. F.eks. kunne lokkemaden ($25) tænkes snarest at ville animere de mest velfungerende til at blive i programmet, mens en hamrende deprimeret person måske snarere ville lade det flyde. Dette er selvfølgelig udpræget spekulativt, men dog vigtigt nok til at sådan en undersøgelse reelt kræver at der blev fulgt op på alle deltagerne, hvad enten de gad eller ej.

Marian sagde ...

Selvfølgeligt kan man ikke helt ekskludere, at nogle blandt dem, der droppede ud, fik det bedre af lykkepillerne. men som oftest dropper folk ud af den slags forsøg, fordi de ikke fornemmer, de får noget ud af det, der skal undersøges.

Nu har jeg ikke lige det nøjagtige tal på, hvor mange der droppede ud, men lad os sige ca. halvdelen. Så ville vi have ca. 5 - 6%, der fik det varigt bedre, under stregen. Ikke meget mere imponerende, end 3%, hvis du spørger mig. Og klart stadigt et tal, der knapt er egnet til at bevise, at antidepressiva er effektive. Forestil dig en hovedpinepille, som der var 5 - 6% af hovedpinepatienter, der oplevede som effektiv...

Anonym sagde ...

Ingen tvivl om at analysen sætter et stort spørgsmålstegn ved påstanden om at STAR*D dokumentererede at SSRI er meget bedre end placebo. Gad vide hvad kombinationen af spontan bedring og placebo ville være for den grad af depression som var omfattet?

Jeg føler mig endda fristet til en spekulation om der kunne argumenteres for at SSRI var mindre effektive ;-)

Netop når vi taler om depression, og dertil hørende risiko for "at gå i stå" mener jeg at usikkerheden om tolkning af hvordan det gik med dropouts er enorm. Der kan sammentænkes plausible argumenter både for at antage bedre/værre.

Forresten kompliceres sagen yderligere at risikoen for en decideret nocebo-effekt, ud fra deltageres reaktion på at hjælpetilbuddet er lykkepiller.

Meget taler for store problemer ved ikke at lave det som en dobbelt-blind undersøgelse, med opfølgning på samtlige deltagere.

Marian sagde ...

Det er nok svært, at få gennemført et sådant forsøg som STAR*D uden at nogen dropper ud. Som regel kan man jo ikke tvinge nogen til at blive ved med at æde pillerne, selv om de ikke ønsker det, hellere vil prøve noget helt andet.

Selvfølgeligt kan man heller ikke udelukke en noceboeffekt i nogle tilfælde. Tænker dog, at chancen for, at nogen, der ikke forventer sig noget af lykkepiller, andet end bivirkninger, går ind i et sådant forsøg, er forholdsvis lille. Man kunne da have tilbudt mig flere tusinder af bucks per test, og jeg havde stadigt takket pænt nej, i betragtning af bivirkningerne. En noceboeffekt ville også være noget mere sandsynligt i dag, end tilbage i 2005/06, hvor man generelt stadigt var af den opfattelse, at lykkepillerne var en velsignelse, hvor det ikke var kommet frem endnu, hvor meget industrien har fiflet med sine egne studier (og der har vi double blind forsøgene, men altså ikke foretaget over et så langt tidsrum, som STAR*D, og heller ikke med opfølgning af alle deltagere), for at påvise en effekt, og hvor negative erfaringer gerne blev afskrevet som "anekdoter".

Men ja, selvfølgeligt kan man ikke forvente 100% sande resultater, når man ikke tager højde for alle eventualiteter. For eksempel også de enkelte deltageres øvrige livssituation, har de et velfungerende netværk bag sig, hvordan bor de, har de et job, hvordan trives de i det, etc.etc., og ikke mindst også, hvordan ser de på deres "depression", som en livskrise, en reaktion på noget, der er sket i deres liv, eller som kronisk hjernesygdom, hvad er deres individuelle livssyn/livsfilosofi, er de troende, og hvordan, hvordan er deres madvaner, kommer de dagligt ud i den friske luft, og er det i virkeligt frisk luft, eller er det bare en tur til døgneren i centrum, for at hente flere smøger, og hvad nøjagtigt forventer de af en lykkepille, hvad, nærmest ordret, har de fået at vide, den vil gøre for dem? Alt i alt taler vi jo om så mange forskellige faktorer, der spiller ind, med nogle af dem værende stort set umuligt, at veje og måle, at det er et godt eksempel på videnskabens begrænsninger mht. at finde frem til den absolutte sandhed. Især når det, som i psykiatrien, drejer sig om den absolutte sandhed angående levende mennesker og deres individuelle erfaringer, og ikke om et eller andet mere eller mindre statisk objekt, respektive bare et målbart stof, såsom serotonin. Sagen ville jo blive noget mere "sandt", hvis man kunne tage en blodprøve og se på serotoninniveauet for at afgøre, om der foreligger en effekt, eller ej. Bortset fra, at serotonin kun er ét af flere hundrede forskellige signalstoffer i hjernen, som vi ikke engang ved endnu, hvad de allesammen helt nøjagtigt bevirker...

Det er sådanne overvejelser, der somme tider får mig til at se forskning som den i STAR*D prakticerede som ret så meningsløs. Eller i hvert fald af meget begrænset værdi. Selv om resultaterne, de faktiske, ikke de interpreterede, selvfølgeligt er vand på min mølle.

Og selv om det ikke er helt din pointe: selvfølgeligt kan man sige, at SSRIs, eller snarere den opfattelse af, hvad "depression" er, som deres anvendelse er en konsekvens af, er mindre effektive - end en opfattelse af "depression" som livskrise, som man selv er i stand til at overkomme.

Anonym sagde ...

Min pointe med at fastholde deltagere i en undersøgelse var nu kun at sikre viden om samtlige deltageres status, altså f.eks. også tilbagefald efter først at have rapporteret en bedring. Helt enig at der ikke skulle være noget pres for at fortsætte med at tage piller.

Din pointe om at skeptikere næppe ville deltage i et sådant forsøg er jo samtidig et udtryk for selection bias, jeg er tilbøjelig til at forvente at denne gruppe har en større andel som får det bedre igen på egen hånd. Altså er i stand til at overkomme det som en livskrise.

Din lange liste over eventualiteter har da stor relevans for den enkelte, men fidusen ved at inddrage en stor gruppe skulle jo være et mindre behov for at vurdere hver enkelt deltager dybere, så længe der ikke opstår åbenlyse skævheder.

Selv om sådan forskning kræver stor fokus på hvordan data behandles, mener jeg nu altid at bestræbelser på at samle viden har reel værdi. De giver jo, som her, også grundlag for at andre kan kikke kritisk på metodikken og tolkningerne. Det kan der netop være stor brug for. Det må være et centralt paradigme at skaffe "hårde data", og teorier som andre kan gå videre med.

Marian sagde ...

Da er nok problemet, at studien ikke havde som formål, at undersøge andet, end SSRIs effekt. Jeg tror egentligt ikke, uden selvfølgeligt at kunne vide det med sikkerhed, at så mange af dem, der umiddelbart fik det bedre af pillerne, droppede ud, og ikke stillede op til opfølgende tests. Tror netop nærmere, at det er folk, der ikke har følt sig så hjulpet af pillerne, måske også syntes, bivirkningerne var for ubehagelige, og som så har set sig om efter en anden form for hjælp. Og studien skulle jo ikke sammenligne effekten af f.eks. samtaleterapi med den af lykkepiller. Så, hvis man ønskede andet, end pillerne, var det jo ligesom diskvalifikationsgrund mht. STAR*D-studien.

Mht. at skeptikerne muligvis har en bedre prognose, altså forudsat, de tror på livskrise snarere end på sygdom, så kunne man jo sige, at der nærmest ikke kan være tvivl, når man ser på, at "depression" førhen, da den stadigt ansås til at være netop en livskrise, ikke betød en livslang slåskamp mod tristheden (jf. mit link til Giannas post i min foregående kommentar).

Er enig i, at data fra sådanne studier kan give interessante oplysninger. Det jeg har et problem med, og der kan få mig til at blive godt og grundigt træt af at se, at der bruges f.eks. 35 millioner dollars på den slags, er når der så ikke også er 35 millioner dollars til forskningsprojekter, der tager deres afsæt i brugererfaringer, gør dem til udgangspunkt og centrum for forskningen. Igennem de senere mange år er der f.eks. ikke blevet gennemført en eneste studie, der sammenligner ikke-medicinsk behandling med den medicinske, når det kommer til "psykoser". Selv om der findes rigeligt med mennesker, der kan fortælle, at ikke-medicinske tiltag har hjulpet dem, og der ligger inde med en enorm viden. Det er ofte en viden, der ikke sådan uden videre kan sammenkoges til nogle tal i nogle statistikker, fordi den netop ikke kan vejes og måles, hvorfor den som regel betegnes som "anekdotisk", og ignoreres.

For mig virker det på en måde "forkert", at stort set udelukkende anvende en positivistisk naturvidenskabelig metodik for at opnå viden om noget, der i så ringe omfang kan måles og vejes, som menneskelige følelser og reaktioner kan det. Det må nødvendigvis resultere i en meget begrænset, og faktisk, siden størsteparten af sagen ignoreres, også "skæv", misvisende "viden".

Og når jeg nævner alle de hér miljøfaktorer, der måske burde være taget højde for også, så er det jo, fordi man ellers ikke kan vide, om det nu virkeligt var pillerne, der gav en bedring, eller om det måske var noget andet. Vi kan jo ikke vide, om de personer, der fik det bedre allerede i første forsøg, måske gjorde det, fordi de, og eventuelt også deres omgivelser, f.eks. havde en større forventning til at få det bedre, end de, der ikke fik det bedre, respektive for hvem det tog flere forsøg.