Academia.eduAcademia.edu

Valores na Ciência e a Perspectiva Ecológica do Conhecimento Científico

2024, Meurer, C. (ed.). Ciência: epistemologia e ensino. Editora do PPGFIL da UFFRJ.

A ideia de que a ciência — ou ao menos as atividades científicas que são consideradas as mais essenciais para a ciência — deve ser livre de valores é bastante difundida. Neste capítulo, vou discutir essa tese, normalmente entendida como um ideal de ciência. Na primeira seção, introduzo alguns conceitos e distinções que são importantes para entender essa tese, como a diferença entre valores cognitivos e não-cognitivos. Na segunda seção, discuto o papel dos valores na seleção de problemas e na metodologia científica. Na terceira seção, apresento dois argumentos canônicos contra o ideal da ciência como livre de valores: o argumento da lacuna explicativa, de Helen Longino (1990), e o argumento do risco indutivo, de Heather Douglas (2009). Na quarta seção, discuto algumas respostas a esses argumentos. Por fim, na última seção, a partir da abordagem ecológica, exploro e sustendo a ideia de que a reconcepção da ciência como uma atividade social situada e adaptativa supera a dicotomia entre fato e valor que subjaz a discussão. Essa nova concepção de ciência nos permite acomodar melhor os resultados dos argumentos apresentados na terceira seção.

VALORES NA CIÊNCIA E A PERSPECTIVA ECOLÓGICA DO CONHECIMENTO CIENTÍFICO Eros Moreira de Carvalho Ideias centrais do capítulo: • A dicotomia entre fato e valor apoia o ideal de ciência como livre de valores. • Valores não-cognitivos estão presentes em todas as etapas da prática científica. • Suposições de fundo e valores são necessários para estabelecer o que é evidência para o quê. • Os riscos atrelados ao uso de uma hipótese científica afetam o limiar de evidência para a aceitação dessa hipótese. • A distinção entre teoria e aplicação é insuficiente para apoiar o ideal de ciência como livre de valores. • O conhecimento científico é situado e sempre envolve alguma aplicação ou uso. • A perspectiva ecológica do conhecimento elimina a dicotomia entre fato e valor. 1. Introdução A pandemia de Covid-19 colocou em destaque a discussão sobre as relações entre a ciência e os valores. Cientistas do mundo inteiro reorientaram as suas pesquisas para satisfazer a demanda social por soluções para os vários problemas colocados pela pandemia. Praticamente todas as grandes áreas foram envolvidas, não só as áreas médicas, na busca de uma vacina e de tratamentos eficazes para a Covid-19, mas também as áreas sociais e humanas, na busca de estratégias para minimizar os seus impactos econômicos e sociais e monitorar os efeitos e sequelas sobre a saúde das relações e organizações humanas. A pandemia também pressionou as metodologias de pesquisa. Dada a urgência de encontrar soluções e respostas no curto e médio prazo, as metodologias para a pesquisa de 250 vacina foram calibradas. De modo semelhante, tratamentos novos que em circunstâncias normais seriam minuciosamente testados e validados quanto à eficácia e segurança antes de serem liberados foram colocados à disposição para a população. Quanto à aplicação do conhecimento científico, as autoridades públicas foram as mais pressionadas. No mundo inteiro, as autoridades tiveram que dar respostas rápidas sobre questões complexas acerca da mobilidade social, manejo hospitalar e de recursos humanos, prioridade de investimentos e outros. Para justificar as suas decisões perante o público, muitas delas diziam estar “seguindo a ciência”. Contudo, como ficou claro diante de respostas antagônicas de diferentes autoridades públicas – e.g., exigir versus recomendar o uso de máscaras em locais públicos fechados –, não há uma única maneira de seguir a ciência.1 Em todos esses casos, valores sociais e morais parecem afetar de uma maneira ou de outra a atividade científica. Apesar dessas situações em que valores parecem afetar a atividade científica, a ideia de que a ciência – ou ao menos as atividades científicas que são consideradas as mais essenciais para a ciência – deve ser livre de valores é bastante difundida. Neste capítulo, vou discutir essa tese, normalmente entendida como um ideal de ciência. Na segunda seção, introduzo alguns conceitos e distinções importantes para entender a tese, como a diferença entre valores cognitivos e não-cognitivos. Na terceira seção, discuto o papel dos valores na seleção de problemas e na metodologia científica. Na quinta seção, apresento dois argumentos canônicos contra o ideal da ciência como livre de valores: o argumento da lacuna explicativa, de Helen Longino (1990), e o argumento do risco indutivo, de Heather Douglas (2009). Na quarta seção, discuto algumas respostas a esses A ideia de que o apelo à ciência por si só seja uma justificação adequada para decisões sobre políticas públicas é reveladora do prestígio de que a ciência ainda goza na nossa sociedade. Mas é ao mesmo tempo enganosa, pois esconde a questão pertinente de se o conhecimento científico está sendo bem ou mal usado. A autoridade pública não pode se isentar dessa responsabilidade. O apelo à ciência é vazio se não estão claros os valores e as demandas que a autoridade pública busca atender. As humanidades em geral podem e devem nos ajudar a entender o que está envolvido no uso adequado do conhecimento científico (Carvalho, 2020). Esse é um esclarecimento importante para que cidadãos possam cobrar das autoridades públicas as responsabilidades que lhes cabem quanto ao uso do conhecimento científico e para desmascarar aquelas autoridades que estão fazendo um apelo meramente retórico à ciência (Bacevic, 2020). 1 251 argumentos. Por fim, exploro e sustendo a ideia de que a reconcepção da ciência como um atividade social situada e adaptativa supera a dicotomia entre fato e valor que subjaz a discussão. Essa nova concepção de ciência permite acomodar melhor os resultados dos argumentos apresentados na terceira seção. 2. O ideal da ciência como livre de valores Na filosofia da ciência anglófona, nas décadas de 50 e 60, a questão sobre o papel dos valores na ciência foi levantada, e em resposta consolidou-se, embora houvesse discordantes, a concepção da ciência como livre de valores. Participaram do debate filósofos como Reichenbach (1951), Hempel (1965), Rudner (1953) e Jerey (1956). Esse período é marcado pelo empirismo lógico, movimento hegemônico na filosofia da ciência à época. Além de rejeitar as filosofias transcendentais e preconizar que todo conhecimento científico deve ser rigidamente validado e controlado pela experiência sensorial, os empiristas lógicos também defenderam a separação rígida entre fatos e valores. Para os empiristas lógicos, valores não estão no mundo físico. Quando alguém diz que “roubar é errado”, essa pessoa não está enunciando um fato acerca do roubo, ela está apenas expressando a sua atitude, de aprovação ou reprovação, em relação ao roubo. Não haveria, assim, uma questão de fato sobre se o roubo é certo ou errado. Certo e errado é apenas uma questão de atitude, de como nos sentimos em relação a certos tipos de ações (Ayer, 1970, p. 107). A psicologia e a sociologia podem investigar empiricamente quais atitudes as pessoas têm diante de certos tipos de ações e quais fatores contribuem para que elas tenham as atitudes que têm, e se há e em que extensão há variações de atitudes entre indivíduos, grupos e culturas, mas as atitudes elas mesmas não são fatos objetivos do mundo. Elas são completamente subjetivas. Portanto, valores também são subjetivos. A partir da dicotomia entre fatos e valores, Reichenbach sustenta que a concepção de conhecimento científico é e deve ser neutra em relação a valores e que a própria ideia de conhecimento ético não faz sentido. É assim porque, na sua concepção, o conhecimento não contém elementos normativos ou prescritivos. O conhecimento contém apenas elementos descritivos, ele descreve ou representa 252 corretamente os fatos do mundo (Reichenbach, 1951, p. 277). A sentença “O ferro conduz eletricidade” apenas afirma um fato geral acerca do ferro. Nenhum elemento valorativo ou prescritivo estaria contido na sentença. Ela é verdadeira, mas tivesse o ferro outras propriedades, essa sentença poderia ser falsa. Verdade e falsidade é algo que se aplica às sentenças que descrevem fatos. Já os proferimentos que expressam valores e diretrizes não são nem verdadeiros nem falsos. “Não mate” não descreve um fato, nem é uma tautologia, mas a exortação para se comportar de certa maneira (Reichenbach, 1951, p. 280). A ciência é controlada pela evidência e, portanto, teorias e hipóte ses devem ser aceitas ou rejeitadas com base na experimentação e observação. No entanto, essas últimas são limitadas e finitas, ao passo que teorias e hipóteses fazem afirmações gerais que vão além do que foi observado e experimentado. A afirmação de que o ferro conduz eletricidade vai além da evidência constituída por todos os pedaços de ferro que observamos conduzir eletricidade. Na primeira metade do século passado, empiristas lógicos alimentaram a esperança de que uma teoria da confirmação seria viável, isto é, uma teoria que estipularia regras formais precisas para a aceitação e rejeição de hipóteses face à evidência disponível. Esse projeto, no entanto, fracassou e se mostrou inviável. Como Nelson Goodman argumentou, qualquer porção finita de evidência suporta uma quantidade indefinida de hipóteses concorrentes (Goodman, 1983, p. 75).2 Não haveria, portanto, critérios puramente sintáticos e formais para a relação entre evidência e hipóteses. Uma solução encontrada foi apelar para qualidades das hipóteses que servem como indícios da sua verdade. Algumas dessas qualidades são: poder preditivo, poder Suponha que todas as esmeraldas observadas até agora sejam verdes. Normalmente, seríamos então levados a projetar a generalização de que todas as esmeraldas são verdes. Goodman nota, no entanto, que poderíamos descrever a evidência disponível afirmando que as esmeraldas observadas até agora são verzuis. “Verzul” é um predicado definido por Goodman assim: algo é verzul se observado verde antes de t ou azul depois de t (Goodman, 1983, p. 73-74). Todas as esmeraldas observadas até agora são verzuis, o que parece, então, permitir a projeção da generalização de que todas as esmeraldas são verzuis. O problema é que a primeira e a última hipóteses fazem predições diferentes e contraditórias acerca da cor das esmeraldas que serão observadas depois de t. Goodman não pretende que levemos a hipótese verzul a sério na prática, mas se almejamos uma teoria formal da confirmação, ela coloca um desafio incontornável. Para uma discussão da crítica de Goodman, cf. Carvalho (2018a). 2 253 explicativo, abrangência e escopo, consistência interna, coerência com outras hipóteses e teorias já aceitas etc. Na filosofia da ciência mais recente, é comum chamar essas qualidades de “valores cognitivos”. Eles são usados para explicar as decisões e os juízos dos cientistas quanto à aceitação ou rejeição de hipóteses e teorias diante da evidência disponível. Embora a noção de valor cognitivo pareça romper com a dicotomia entre fato e valor, ela ainda não nos convida a reavaliar profundamente essa dicotomia. O que se chama de “valores cognitivos” são qualidades objetivas das hipóteses e teorias científicas que são indícios confiáveis para a verdade dessas últimas. Pode-se dizer que há fatos, rastreáveis indutivamente, que determinam se essas qualidades são indícios confiáveis ou não da verdade. Há outras qualidades de hipóteses e teorias que não se julga que sejam indícios da sua verdade. É o caso da simplicidade e das qualidades estéticas. Nesses casos, essas qualidades são normalmente tratadas como fatores subjetivos e, portanto, não-cognitivos para a aceitação ou rejeição de hipóteses. Nesse sentido, a expressão “valor cognitivo” pode engendrar confusão, já que foi dito que valores, na visão tradicional dos empiristas lógicos, são subjetivos. Não vou disputar por palavras. Talvez fosse melhor chamar os valores cognitivos de “critérios epistêmicos”, já que se pretende que sejam indícios objetivos e não a expressão de meras atitudes.3 Em qualquer caso, para a nossa discussão, o que importa reter é que o contraste entre valores cognitivos e não-cognitivos ainda espelha a dicotomia tradicional entre fato e valor e que os valores não-cognitivos, os quais englobam valores Heather Douglas (2009, p. 92) sustenta precisamente que valores cognitivos, que na sua taxonomia são chamados de “valores epistêmicos”, não são valores em sentido estrito. Ela reserva a categoria de valores cognitivos para qualidades da teoria científica que, embora não tenham nenhuma conexão com a sua verdade, ainda assim ajudam o cientista a manejar e a pensar acerca dos fenômenos cobertos pela teoria. Deste modo, diferente do que eu sugeri, a simplicidade seria, para ela, um valor cognitivo, embora não epistêmico. Para os meus propósitos, o contraste entre valores cognitivos e não-cognitivos, no sentido indicado, é suficiente. De qualquer forma, o leitor deve ter em mente que não há consenso na literatura sobre a taxonomia dos valores. 3 254 morais, estéticos e sociais, são atitudes subjetivas.4 Quando aplicados a hipóteses e teorias, eles expressam uma atitude favorável ou desfavorável à teoria, mas sem qualquer conexão com a sua verdade. Assim, alguém pode preferir uma teoria porque ela é mais simples, bela ou mais coerente com os seus valores morais. Os defensores do ideal da ciência como livre de valores não negam que isso pode ocorrer. A sociologia da ciência mostra que isso ocorre com certa frequência. No entanto, eles sustentam que isso não deveria acontecer, isto é, o cientista deve evitar que valores influenciem as suas decisões. Mais precisamente, sustentam que a atividade científica não deve ser afetada por valores não-cognitivos. Assim, a ciência se mantém objetiva no seu propósito de alcançar teorias corretas e verdadeiras. Ainda restam algumas distinções importantes. Quando se fala em atividade científica, é comum subdividi-la em pelo menos quatro etapas: a) a seleção de problemas, b) a formulação de metodologias, c) a coleta, a caracterização e a interpretação dos dados e d) a avaliação da hipótese científica. As duas primeiras são caracterizadas como externas, isto é, como envolvendo interações com atividades nãocientíficas, e as duas últimas são caracterizadas como internas, isto é, como atividades essencialmente científicas. Os defensores do ideal da ciência como livre de valores não negam que valores não-cognitivos afetem e possam legitimamente afetar as duas primeiras etapas. Como já apontado no início do texto, as demandas da sociedade impactam a seleção de problemas, e é esperado que seja assim. Do mesmo modo, nossas preocupações morais com o bem-estar de humanos e animais não-humanos afetam as metodologias de pesquisa que envolvem humanos ou animais não-humanos. No entanto, para os defensores do ideal da ciência como livre de valores, as duas últimas etapas não devem ser afetadas por valores não-cognitivos, pois essas são as etapas propriamente científicas. Para que a ciência mantenha-se objetiva, valores não-cognitivos não devem afetar a caracterização e É importante salientar que, na literatura, não é consensual que uma distinção clara e precisa entre valores cognitivos, também chamados de “valores epistêmicos”, e valores não-cognitivos pode ser estabelecida (Elliott, 2022, p. 5-6). Para uma discussão aprofundada desse ponto, cf. Rooney (2017). Esses questionamentos são água para o meu moinho, pois interpreto eles como evidência de que a separação rígida entre cognição e valores não é sustentável, como será defendido na última seção deste capítulo. 4 255 interpretação dos dados e muito menos a aceitação ou rejeição de hipóteses científicas. Para caracterizar o ideal da ciência como livre de valores com uma precisão ainda maior, é oportuno visitar a distinção introduzida por Hugh Lacey (2010, p. 40-44) entre imparcialidade, neutralidade e autonomia. A imparcialidade é a ideia de que apenas valores cognitivos podem influenciar a decisão quanto à aceitação ou rejeição de teorias e hipóteses científicas. A neutralidade é a ideia de que as teorias científicas e as estratégias de pesquisa aceitas não privilegiam nenhuma perspectiva de valor moral ou social, isto é, as aplicações dessas teorias e estratégias podem atender equitativamente diferentes perspectivas de valor. Por fim, a autonomia é a ideia de que as instituições científicas determinam as suas agendas e prioridades de pesquisa sem interferência externa. O ideal da ciência como maximamente livre de valores envolveria a defesa de que a ciência deve ser imparcial, neutra e autônoma. Atualmente, não é comum a defesa dessa tese extrema. Dada a divisão entre as etapas da atividade científica, é bastante consensual aceitar que a ciência não é nem deve ser completamente autônoma. Por exemplo, se a ciência vai investir na busca da cura do câncer ou não é uma demanda social, embora ela tenha de ser autônoma para determinar quais problemas ela deve atacar e em que ordem de prioridade para encontrar a cura para o câncer. A neutralidade também não parece ser exequível. Por exemplo, a pesquisa agrícola pode adotar tanto uma estratégia biotecnológica quanto uma estratégia agroecológica. Essas estratégias não são neutras em relação a perspectivas de valor de fundo (Lacey, 2010, p. 50). A primeira estratégia favorece a perspectiva de controle e produtividade, enquanto a segunda a perspectiva de preservação ambiental e igualdade social. Seria muito oneroso e demandante a norma de investigar e aceitar apenas teorias científicas que atendam de modo equitativo quaisquer perspectivas de valor. Resta a imparcialidade. Ela é atualmente a ideia mais defendida por aqueles que ainda sustentam o ideal de ciência como livre de valores. Assim, podemos entender esse ideal como o comprometimento com a seguinte tese: A ciência deve ser imparcial. Valores não-cognitivos não devem afetar as decisões dos cientistas nas atividades propriamente científicas, que são a coleta, caracterização e descrição dos 256 dados e a aceitação ou rejeição de teorias e hipóteses científicas. Apenas valores cognitivos podem participar dessas decisões. 3. Valores na escolha de problemas e na metodologia de pesquisa Como já foi salientado, não é muito controverso que valores nãocognitivos (sociais, morais, estéticos etc.) orientem as etapas externas da atividade científica. Ainda assim, há questões importantes e interessantes sobre como esses valores interagem com a ciência. 3.1 A escolha de problemas Saindo dos casos de grande urgência social, como a pandemia de Covid-19, quando há consenso sobre o que precisa ser investigado, não é tão claro quais valores sociais podem e devem orientar a seleção de problemas para a investigação científica. A principal questão aqui é: quem decide e quais valores devem orientar essa decisão? A esse respeito, é importante considerar que a ciência assumiu um papel destacado nos estados nacionais contemporâneos, auxiliando-os na promoção do bem-estar social e oferecimento de serviços públicos. Não à toa, hoje os principais financiadores da ciência são os próprios estados, mesmo em sociedades mais inclinadas ao liberalismo econômico. Nesse contexto, não é razoável que as principais diretrizes sobre que áreas de pesquisa privilegiar estejam exclusivamente nas mãos dos cientistas. Em sociedades democráticas, como a ciência é em grande medida financiada pelo contribuinte, ela precisa responder às demandas da sociedade. As agências de financiamento cumprem esse papel através da indução de pesquisa em áreas de interesse social. Ao mesmo tempo, isso não significa que os cientistas não devam ter alguma autonomia sobre essa questão, e por duas razões. Primeiro, os cientistas são as autoridades sobre quais programas de pesquisa são promissores e fecundos. Seria improdutivo direcionar fortemente a atividade científica para áreas que se mostram recalcitrantes à investigação científica. Segundo, como já aprendemos pela história, o próprio progresso da ciência decai se ela é constrangida demais pelas demandas práticas e imediatas e não é deixada perseguir interesses teóricos não-imediatos colocados pelos próprios cientistas (Polanyi, 2009, p. 3). Há também a dificuldade não- 257 negligenciável de como determinar o que é de interesse social. É a própria população civil quem decide, ou o governo, ou ainda pesquisadores especializados em bem-estar social e políticas públicas? Uma possibilidade é que todos esses setores participem conjuntamente das decisões sobre que áreas privilegiar. Na proposta de ciência bem-ordenada de Philip Kitcher (2011), essas decisões devem resultar de um processo deliberativo que envolve representantes da sociedade civil, do governo e especialistas. Ao menos em sociedades democráticas, esse parece ser um bom modelo decisório para que a ciência cumpra o seu objetivo, que não é o de apenas descobrir como a realidade é, mas o de descobrir verdades que sejam interessantes para a comunidade a que ela serve. Em áreas onde a pesquisa científica é financiada sobretudo por grandes empresas privadas, algumas distorções podem surgir. A pesquisa na área médica é financiada em grande medida pela indústria farmacêutica. Essa indústria, no entanto, se concentra nos países mais ricos e desenvolvidos. Uma consequência disso é a distribuição muito desigual dos recursos para a pesquisa sobre doenças que afetam diferentes populações do globo (Barker; Kitcher, 2014, p. 153). Há muito mais recursos para pesquisa sobre o câncer do que sobre a malária. Como a malária afeta apenas as populações mais vulneráveis e pobres do sul global, não há incentivo financeiro para que a indústria farmacêutica se engaje na busca de uma cura para ela. Esse é um problema difícil de resolver, pois envolve não só coordenação entre público e privado, mas também entre nações. Parece claro, no entanto, que países em desenvolvimento não podem abrir mão de pesquisa própria se almejam soluções para problemas que afetam o bem-estar de suas populações. O caso da epidemia de Zika no nordeste brasileiro entre 2014 e 2016 é exemplar. Não fosse o engajamento da Fiocruz, instituição pública de pesquisa, e o apoio logístico do Sistema Único de Saúde (SUS) (Lui et al., 2022), provavelmente não se teria obtido em tempo as estratégias e os conhecimentos necessários para debelar a epidemia (Ministério da Saúde, 2017). O financiamento privado da pesquisa, além de colocar em destaque a oposição entre interesses sociais e privados – conhecimento para a promoção do bem-estar social versus a promoção do lucro privado –, também coloca pressão sobre uma das normas fundamentais da ciência. Segundo o sociólogo da ciência Robert Merton (2013, p. 190), as descobertas da ciência 258 devem ser dirigidas para a comunidade, elas constituem a herança comum para as gerações futuras de cientistas. A dinâmica do progresso científico depende que o conhecimento conquistado permaneça público para escrutínio e como ponto de partida para novas investigações. No entanto, essa norma é severamente limitada pela pesquisa privada e a política de patentes. Embora seja inegável que valores sociais possam influenciar as decisões sobre quais áreas são de interesse de pesquisa, a questão sobre quais valores sociais podem ter esse papel e como e quem toma essa decisão é complexa. 3.2 Ética e metodologia de pesquisa Também não é controverso que valores morais e éticos orientem a formulação de metodologia das pesquisas que envolvam seres sencientes. Atualmente, no mundo inteiro universidades contam com comitês de ética que são responsáveis por avaliar se as pesquisas realizadas nessas instituições atendem preceitos éticos quando animais humanos ou não-humanos estão envolvidos. Mas nem sempre foi assim, e a história da ciência tem um repertório não-negligenciável de pesquisas que violaram a integridade dos participantes. Um dos episódios mais chocantes é o caso Tuskegee. O projeto Tuskegee foi um estudo longitudinal sobre o desenvolvimento da sífilis realizado pelo Serviço de Saúde Pública dos Estados Unidos de 1932 a 1972. Neste estudo, participaram 600 homens negros, destes, 399 com sífilis e 201 sem a doença. Os homens com a doença não sabiam que tinham sífilis e eles não foram avisados acerca do diagnóstico. Durante esse período, surgiram tratamentos para a doença, mas os participantes infectados não foram avisados e também não receberam o tratamento. Para piorar a situação, as instituições de saúde dos EUA receberam uma lista com os nomes dos participantes para evitar que dessem tratamento caso algum deles procurasse atendimento (Goldim, 1999). Apenas em 1997, quando havia só oito sobreviventes do experimento, o governo americano pediu desculpas às pessoas que foram enganadas. O caso chama ainda mais a atenção por ter ocorrido em um país democrático e por ter envolvido pesquisadores e profissionais da área de saúde de diversas instituições. No Brasil recente, durante a pandemia de Covid-19, assistimos ao escândalo da Prevent Senior, 259 ainda em apuração (Jucá, 2021). Supostamente, a operadora de saúde Prevent Senior pressionou os seus médicos a receitarem a seus pacientes o kit-covid, a essa altura já comprovado ineficaz. A acusação mais grave é a de que a administradora experimentou também medicamentos em pacientes sem a devida autorização. Esses são casos de violação drástica da dignidade humana na pesquisa científica e na aplicação de conhecimento científico, e que evidenciam a importância dos comitês de ética em qualquer instituição que realize pesquisas envolvendo seres sencientes. Robert Merton (2013, p. 177) salienta também que os maus usos do conhecimento científico é uma das principais causas de movimentos anticiência na sociedade. Essa é uma razão extra para nos preocuparmos com a ética na formulação de metodologias de pesquisa. Há outras situações menos controvertidas e que ainda assim geram questões difíceis sobre a relação entre ética e metodologia de pesquisa. Por exemplo, é comum que experimentos em psicologia envolvam algum tipo de ilusão ou engano. Para que os experimentos funcionem, é importante que os participantes não saibam exatamente o que está sendo investigado, pois isso pode afetar o seu comportamento e comprometer a pesquisa. Em alguns casos, os participantes são informados que o experimento tem um objetivo que, na verdade, ele não possui. Por exemplo, no famoso experimento de Milgram, os participantes foram informados que eles estavam colaborando em um experimento sobre a memória e o papel da punição na aprendizagem. Na verdade, o experimento era sobre a tendência das pessoas a obedecerem à autoridade. No experimento, os participantes são convidados a aplicar choques cada vez mais elevados a uma pessoa, que se encontra em outra sala, quando ela erra um exercício de memorização. O participante não sabe, mas o choque não é real, embora a pessoa na outra sala finja recebê-lo. Quando o participante hesita dar o choque, pois ouve e vê a pessoa na outra sala gemendo de dor, o cientista insiste que a punição é importante para o experimento e que a saúde e a vida da pessoa não estão em risco. Uma parcela significativa dos participantes prossegue aplicando os choques. Se fosse dito desde o início que o objetivo da pesquisa era avaliar a obediência à autoridade, é muito provável que os participantes não prosseguiriam aplicando os choques. Ao mesmo tempo, argumenta-se que o uso de engano em experimentos é uma 260 forma de violação da autonomia dos participantes e o seu interesse na verdade (Bortolotti, 2010, p. 273). Uma maneira de amenizar essa consequência, já amplamente utilizada, consiste em abrir o jogo para os participantes logo após a realização do experimento. Depois que e s t ã o c o m p l e t a m e n t e e s c l a re c i d o s s o b re o s o b j e t i vo s e procedimentos, a anuência de participação é novamente solicitada. Há outros fatores que certamente devem ser considerados também. Alguns experimentos psicológicos podem deixar traumas ou sequelas psicológicas nos participantes. Alega-se que esse seria o caso, por exemplo, do experimento de Milgram, que colocou os participantes em uma situação angustiante ao solicitá-los a prosseguir dando choques em pessoas que aparentemente estavam agonizando de dor (Bortolotti, 2010, p. 280). Se um experimento deixa ou tem elevadas chances de deixar sequelas psicológicas nos participantes, então é uma boa razão para evitar realizar o experimento. Espera-se também que o resultado de um experimento que envolva engano ou ilusão seja conhecimento inédito e dificilmente obtido por vias que não envolvam alguma forma de ilusão. Trata-se de uma demanda razoável diante da violação, ainda que parcial e momentânea, da autonomia dos participantes. São muitas as questões éticas que podem surgir em relação às metodologias de pesquisa, já que os participantes, humanos e nãohumanos, podem ser afetados de diferentes maneiras pelos experimentos em que participam. Cabe, portanto, aos comitês de ética não só avaliar previamente as metodologias de pesquisa, mas também acompanhar a execução dos experimentos que ofereçam um maior risco à integridade dos participantes. 4. Argumentos contra o ideal de ciência como livre de valores Nesta seção, apresento e discuto dois argumentos célebres contra o ideal de ciência como livre de valores, o argumento da lacuna explicativa, de Helen Longino, e o argumento do risco indutivo, de Heather Douglas. Ambas as filósofas sustentam que valores nãocognitivos, isto é, valores sociais e morais, são imprescindíveis mesmo nas etapas internas da atividade científica. 261 4.1 O argumento da lacuna explicativa O argumento da lacuna explicativa apoia-se em vários resultados da investigação filosófica sobre a relação entre experiência e teoria. Um desses resultados, já mencionado, foi o fracasso das teorias sintáticas da confirmação. Por mais ampla que seja a experimentação e a observação acumuladas, elas sempre serão compatíveis, em princípio, com mais de uma teoria. Essa situação pode ser amenizada, como foi sugerido, pelo apelo a valores cognitivos, os quais podem restringir substantivamente o leque de teorias concorrentes que precisam ser consideradas. Contudo, não há nenhuma garantia de que ainda assim, diante da evidência disponível, não haverá mais de uma teoria ou hipótese científica igualmente bem avaliada pelos valores cognitivos. A escolha de uma teoria em detrimento de outra, nesta situação, seria arbitrária. Mas esta não é a maior dificuldade no entorno da relação entre evidência e teoria. Helen Longino argumenta que se um fato observado é tomado como evidência para uma hipótese h depende de suposições de fundo que relacionam evidências e hipóteses. Por exemplo, o fato em si mesmo de que há uma alternância constante entre dia e noite não é mais evidência para o geocentrismo do que para o heliocentrismo. Na verdade, à luz de suposições de fundo do geocentrismo, esse fato indica que o Sol gira em torno da Terra, ao passo que, à luz de suposições de fundo do heliocentrismo, o mesmo fato indica que a Terra gira em torno de si mesma (Longino, 1990, p. 45). Para tomar um exemplo mais contemporâneo, o desenvolvimento das capacidades cognitivas, do comportamento cooperativo e do uso de ferramentas ao longo da nossa história evolutiva em si mesmo não indica, como sugerido no século passado, que as atividades de caça do homem tiveram um papel crucial na evolução humana, pois o mesmo desenvolvimento, dependendo das suposições de fundo, pode indicar que as atividades de coleta da mulher tiveram um papel crucial na evolução humana (Elliott, 2022, p. 20). Assim, dados coletados de experimentos e observação em si mesmos não indicam uma hipótese 262 mais do que qualquer outra. O que serve de evidência para o quê depende sempre de suposições de fundo (Longino, 1990, p. 58).5 Para Helen Longino, a preferência pela hipótese que enfatiza as atividades de caça do homem mascara valores androcêntricos da arqueologia da época. Androcentrismo refere-se à percepção da vida social a partir de uma visão masculina que ignora ou tem dificuldade de notar corretamente as atividades das mulheres. Distingue-se do sexismo, pois não pressupõe, como faz este último, que as mulheres são de alguma maneira inferiores (Longino, 1990, p. 129). Pedras lascadas são vistas como evidência inequívoca de homens caçadores apenas numa perspectiva que postula o comportamento masculino como central para a evolução da espécie. As mesmas pedras lascadas poderiam ser evidência para o comportamento de mulheres na coleta e preparação de alimentos comestíveis. Pior, a indisposição a atribuir outras atividades que a caça ao homem possivelmente reflete também a concepção aristocrática do início do século passado acerca da atividade da caça como exibindo valores de coragem e nobreza (Longino, 1990, p. 130). Assim, valores atuam no raciocínio científico ao moldarem suposições de fundo que conectam evidência a hipóteses. O contraste entre suposições de fundo que privilegiam atividades masculinas e suposições que privilegiam atividades femininas e os consequentes vieses que isso parece implicar na pesquisa científica poderiam ser vistos como uma razão contra a presença de valores nãocognitivos na aceitação e rejeição de hipóteses. No entanto, Helen Longino afasta essa possibilidade alegando que ela não é realista. Ao negar a participação de valores não-cognitivos, corremos o risco de que eles atuem inconscientemente do mesmo jeito (Longino, 1990, p. 191). A extensa discussão de Longino sobre a presença de valores nãocognitivos não só na arqueologia, mas também em estudos hormonais da neurociência e estudos sobre violência na psicologia O argumento da Helen Longino pode ser aproximado da crítica de Sellars ao mito do dado. Segundo Sellars, a ideia de que a experiência sensorial serve de justificação ou evidência para alguma crença é um mito, pois, isoladamente, ela não tem nenhum conteúdo proposicional e, portanto, não pode cumprir o papel de razão. Só o que tem conteúdo proposicional pode justificar uma crença. A não ser, portanto, que tenhamos, associadas às experiências, crenças de fundo que relacionem certas experiências a certas crenças, as experiências elas mesmas não têm qualquer papel epistêmico de justificação (Sellars, 2008). Esse foi um dos resultados mais devastadores da reflexão filosófica para o empirismo tradicional no século passado. 5 263 comportamental ilustram isso muito bem. A saída mais realista, na verdade, seria reconhecer a presença dos valores não-cognitivos e adotar uma atitude mais ativa em relação a eles. A explicitação dos valores que servem de base para suposições de fundo acerca do que é evidência para o quê permite a sua discussão e avaliação pelos pares da disciplina. Ela obriga os cientistas a serem responsáveis pelos valores não-cognitivos que eles trazem para o seu paradigma de pesquisa. Além disso, devemos pensar a objetividade não em termos de representação fidedigna de fatos, mas em termos de um procedimento de discussão e crítica pública em que os participantes têm igual autoridade, são responsivos à crítica e reconhecem certos padrões de crítica como legítimos para contestar métodos, experimentos e suposições da prática científica (Longino, 1990, p. 76). O possível viés na pesquisa devido à presença de valores nãocognitivos pode ser mitigado por essa estratégia e pela adoção de equipes de pesquisa heterogêneas no que diz respeito à classe, gênero e etnia. Assim, os valores acordados em um programa de pesquisa tenderão a ser mais representativos. Por fim, a sugestão de ignorar os valores não-cognitivos pode também não ser factível porque, em muitos casos, sem eles, não se chega às suposições de fundo necessárias para conectar as evidências às teorias. São tantas suposições possíveis que valores não-cognitivos são necessários para escolher entre elas. As demandas práticas e sociais que recaem sobre a ciência, que precisa então dar respostas mais imediatas, impedem que se espere indefinidamente por mais evidência para que valores não-cognitivos não sejam utilizados (Elliott, 2022, p. 21). 4.2 O argumento do risco indutivo O argumento da lacuna explicativa sustenta que valores não-cognitivos são cruciais para selecionar suposições que determinam o que é evidência para o quê. O argumento do risco indutivo sustenta que valores não-cognitivos são fundamentais também para determinar quando a evidência é suficiente para aceitar ou rejeitar uma hipótese científica. Cientistas fazem experimentos para testar as suas hipóteses. Após os experimentos e a coleta de evidência, eles precisam decidir se aceitam ou rejeitam a hipótese. Neste momento, quatro coisas podem 264 acontecer: (i) o cientista aceita a hipótese e ela é verdadeira; (ii) o cientista aceita a hipótese, mas ela é falsa; (iii) o cientista rejeita a hipótese e ela é falsa e (iv) o cientista rejeita a hipótese, mas ela é falsa. As situações (i) e (iii) representam o objetivo do cientista, aceitar apenas as hipóteses verdadeiras e rejeitar apenas as hipóteses falsas. As situações (ii) e (iv) representam possíveis erros do cientista, aceitar uma hipótese falsa e rejeitar uma hipótese verdadeira. O cientista quer e deve evitar esses erros. A dificuldade não é negligenciável, pois o cientista precisa lidar com a incerteza. Os experimentos e a evidência coletada são sempre limitados, circunscritos, por exemplo, a uma população finita que foi observada, enquanto a hipótese é geral e faz uma afirmação que extrapola a população observada. Quando se decide, portanto, aceitar ou rejeitar uma hipótese com base nesta evidência, há o risco de errar. Isso é o que se chama de “risco indutivo”, expressão forjada por Hempel (1965, p. 92) em texto seminal sobre o tema. Essa dificuldade é incontornável, já que normalmente a ciência lida com hipóteses que fazem afirmações sobre um universo indefinido de coisas. Não há como limitar a ciência apenas ao que foi observado. Se ela assim fosse limitada, seria inútil. Não nos ajudaria a fazer explicações ou previsões sobre o que não foi observado. Como evitar, então, os erros (ii) e (iv)? Esses erros serão evitados se tivermos critérios e regras que determinem quando a evidência, mesmo limitada, é suficiente para aceitar ou rejeitar uma hipótese científica. Hempel sugeriu que esses critérios deveriam ser baseados apenas em valores cognitivos, pois devem ser valores que nos levem à “obtenção de um conjunto de informação sobre o mundo crescentemente confiável, amplo e teoricamente sistematizado” (Hempel, 1965, p. 93). Sua ideia é que esses critérios avaliem os riscos de errar envolvidos em (ii) e (iv). Como, no seu entendimento, aplicações práticas não são contempladas quando o cientista avalia se uma hipótese deve ser aceita ou rejeitada – apenas a sua verdade ou falsidade importam e devem ser consideradas –, então valores nãocognitivos não devem participar dessa decisão. No entanto, esta estratégia esbarra em uma limitação semelhante àquela que se impõe à seleção de suposições de fundo para determinar o que é evidência para o quê. Valores cognitivos não são suficientes para determinar se a 265 evidência é suficiente ou não para a aceitação ou rejeição de uma hipótese. Se o risco de errar em (ii) e (iv) é entendido apenas em termos de falsos positivos e falsos negativos, desconsiderando-se as consequências práticas de se aceitar uma hipótese falsa e rejeitar uma hipótese verdadeira, então valores cognitivos, na medida em que não eliminam a incerteza, não vão eliminar a possibilidade desses erros. Por esse motivo, alguns filósofos da ciência, como Rudner na década de 1960 e Heather Douglas nas últimas décadas, sustentam que cientistas avaliem o risco de aceitar uma hipótese falsa e rejeitar uma hipótese verdadeira com base em valores sociais e morais. Eles devem extrair as consequências práticas de se aceitar uma hipótese falsa e as de rejeitar uma hipótese verdadeira e avaliar essas consequências com base nos valores não-cognitivos. À luz dessas avaliações, eles podem determinar se a evidência de que dispõem minimiza esses riscos. Como coloca Rudner (1953, p. 3), “o risco que alguém está disposto a tolerar ao estar errado na aceitação ou rejeição de uma hipótese dependerá de quão sérias são, no sentido tipicamente ético, as consequências de se cometer esse erro”. Heather Douglas (2000) tem sido uma grande defensora dessa ideia nas últimas décadas. Vejamos um exemplo, discutido por ela extensivamente. Douglas usa o caso da dioxina, que é uma substância resultante de muitos processos industriais e eliminada na atmosfera. A pergunta científica é se essa substância é um poluente, isto é, se ela é tóxica. Mais particularmente, a partir de qual concentração ela é tóxica ou prejudicial para organismos vivos como nós. A pergunta pode ser ainda mais específica ao se concentrar apenas em um malefício, por exemplo, o câncer. Assim, cientistas elaboram experimentos para testar a hipótese de se dioxina causa câncer. Para tanto, fazem-se experimentos com camundongos. Diferentes grupos de camundongos são expostos a diferentes concentrações da dioxina por um certo intervalo de tempo, normalmente de 1 a 2 anos. Ao mesmo tempo, haverá um grupo controle de camundongos, que não é exposto à dioxina. Após os experimentos, compara-se a taxa de incidência de câncer nos diferentes grupos com a taxa de incidência de câncer no grupo controle. É importante observar que, independentemente da dioxina, alguns camundongos no grupo controle podem desenvolver câncer por outras razões. 266 A pergunta que se pode levantar é: a partir de qual diferença entre a taxa de incidência de câncer no grupo controle e a taxa de incidência de câncer em algum dos outros grupos estaremos autorizados a dizer que a respectiva concentração de dioxina é a responsável por essa diferença e, portanto, causadora de câncer? A literatura diz que a diferença tem que ser estatisticamente relevante. Mas o problema é justamente esse. Como determinar quando ela é relevante? Por um lado, uma diferença de 1% seria provavelmente muito pequena. Inclusive, é uma diferença que se pode esperar entre um grupo controle e o outro. Isto é, dois grupos controles não vão apresentar exatamente a mesma taxa de incidência de câncer e essa diferença pode muito bem estar em torno de 1% ou até mais. Por outro lado, uma diferença de 20% talvez seja muito grande. Qualquer escolha entre um extremo e outro, à luz dos experimentos apenas, parece arbitrária. É neste momento que Heather Douglas sugere que os cientistas têm de olhar para as consequências práticas de se aceitar cada uma dessas possibilidades e avaliar essas consequências com base em valores sociais e morais. Por um lado, se o cientista opta por uma diferença muito pequena, isso significa que uma baixa concentração de dioxina é tomada como causadora de câncer. Qualquer concentração acima também será, portanto, tomada como causadora de câncer. Isso significa que podemos vir a ter muitos falsos positivos e poucos falsos negativos. Se a hipótese de que uma concentração muito baixa de dioxina causa câncer é tomada como verdadeira, uma consequência prática é que deverá haver um maior controle sobre os processos industriais. As atividades econômicas que envolvem a dioxina devem ser duramente regulamentadas, o que aumentará o custo dessas atividades. Ao mesmo tempo, preserva-se a vida das pessoas. As chances de alguém desenvolver câncer devido à dioxina serão pequenas. Por outro lado, se o cientista opta por uma diferença muito grande, isso significa que somente uma alta concentração de dioxina é tomada como causadora de câncer. Qualquer concentração abaixo será rejeitada como causadora de câncer. Isso significa que podemos ter muitos falsos negativos e poucos falsos positivos. Se essa hipótese é tomada como verdadeira, isso significa que haverá um controle menor sobre os processos industriais. Ao mesmo tempo, coloca-se a população numa situação maior de risco, já que, havendo 267 mais falsos negativos, as chances de que a população esteja submetida a uma concentração de dioxina que, no fim das contas, causa câncer são grandes. Assim, conclui Douglas, o cientista precisa avaliar as consequências práticas de aceitar ou rejeitar uma hipótese com base em valores sociais e morais para determinar qual é o limiar de significância estatística adequado ao caso. Em outras palavras, valores não-cognitivos são cruciais para determinar quando a evidência é suficiente para aceitar ou rejeitar uma hipótese. É importante salientar que, na concepção de Douglas, valores não-cognitivos não são razões diretas para crer em hipóteses científicas, isto é, valores não-cognitivos não indicam a verdade ou falsidade de hipóteses e teorias; eles não são evidência adicional. Valores não-cognitivos têm o papel de “pesar a importância da incerteza acerca de uma afirmação, ajudando a decidir o que deve contar como evidência suficiente para essa afirmação” (Douglas, 2009, p. 96). Douglas sustenta que o papel indireto de valores morais e sociais nas atividades científicas é legítimo, mas o uso direto, como razões para crer, não é. O argumento do risco indutivo pode ser aplicado de modo interessante ao debate atual em torno do aquecimento global e da hipótese antropogênica de que a principal causa do aquecimento são as atividades humanas. Embora haja consenso robusto, acima de 90%, na comunidade de climatólogos de que a hipótese antropogênica está correta (Cook et al., 2013, 2016; Powell, 2016), alguém pode perguntar se esse consenso está correto. Normalmente, as dúvidas levantadas contra a correção do consenso vêm de partes interessadas que atuam fora da comunidade científica (Oreskes, 2018), possivelmente com o propósito de minar a percepção pública acerca desse consenso. De qualquer modo, em vez de buscar mostrar que essas possibilidades contrárias são implausíveis, pode ser mais eficaz enfatizar que a ciência não produz certezas absolutas – embora seja autocorretiva e esteja sempre atenta para diagnosticar e corrigir os seus erros – e que devemos olhar para as consequências práticas da aceitação da hipótese antropogênica se quisermos ter uma percepção mais clara de se a evidência acumulada pelos climatólogos é suficiente ou não para a sua aceitação. As consequências de se aceitar a hipótese antropogênica são vastas, o custo econômico e social em termos de 268 mudanças de hábitos para minorar o efeito das atividades humanas sobre o clima não são negligenciáveis. Contudo, as consequências de se rejeitar a hipótese antropogênica são ainda piores, não só pelos transtornos e catástrofes climáticos, mas sobretudo pelo risco crescente de colapso do ecossistema global, inviabilizando a própria vida humana. À luz dessas considerações, Lloyd et al. (2021, p. 2) sustentam que evidência muito mais parca que a atualmente disponível já seria suficiente para aceitar a hipótese antropogênica. Eles tomam como parâmetro o padrão de evidência requerido em situações de litígio legal. Por exemplo, para a atribuição de responsabilidade em casos de imperícia médica, nos EUA, o padrão de evidência não precisa ser mais forte do que o necessário para afirmar que a imperícia é mais provável do que o contrário. A razão para isso são os riscos e prejuízos à pessoa afetada pela imperícia. Lloyd et al. (2021, p. 03) sugerem que a comunidade de climatólogos deveria se aproximar desse padrão de evidência na aceitação e rejeição de afirmações sobre o aquecimento global. 5. Defesas do ideal da ciência como livre de valores Há muitas respostas aos argumentos de Longino e Douglas. Na sequência, aponto algumas mais salientes e comuns e, em seguida, discuto uma releitura recente por Liam Bright dos argumentos independentes de Du Bois em favor do ideal da ciência como livre de valores. Uma maneira de restringir o impacto do argumento do risco indutivo seria pela distinção entre ciência pura ou básica e ciência aplicada. As conclusões do argumento valeriam apenas para a ciência aplicada, mas não para a ciência pura. Quando aplicamos o conhecimento científico, ele terá efeitos diretos e indiretos, os quais precisam ser considerados e ponderados, especialmente quando comunidades ou populações inteiras são afetadas por essa aplicação. Mas a ciência básica, restrita ao laboratório e aos centros de pesquisa, não tem de se preocupar com esses efeitos. Assim, o ideal de ciência como livre de valores poderia manter-se válido no âmbito mais restrito da ciência básica. A dificuldade desta resposta é que a distinção entre ciência básica e aplicada é ela mesma problemática, especialmente se pensada em termos dos seus efeitos. Em 1945, quando se realizou o 269 primeiro teste com uma bomba nuclear em um deserto do Novo México, os cientistas envolvidos consideraram a possibilidade de que a explosão da bomba pudesse gerar uma reação em cadeia que consumiria a própria atmosfera, tornando a vida na Terra inviável (Douglas, 2009, p. 77). Essa possibilidade foi estudada e descartada; em verdade, concluiu-se que seria uma impossibilidade científica. Em princípio, esse experimento seria ainda parte da ciência básica. Outro caso ainda menos disputado seria o uso de aceleradores de partículas na investigação sobre os componentes mais elementares da matéria. Não parece haver dúvida de que se trata de ciência básica. Ainda assim, a possibilidade de que um acelerador possa explodir, produzir efeitos danosos à saúde dos físicos experimentais, ou mesmo gerar um buraco negro durante a sua operação (Cern, 2011) precisa ser considerada e ponderada. Ao fazê-o, valores não-cognitivos terão de entrar em cena. Além disso, na ausência de qualquer consequência prática, pode-se sustentar que a questão de aceitar ou rejeitar uma teoria científica nem se coloca. Com base em que preferiríamos aceitar uma teoria que tem 95% de probabilidade de ser verdadeira em vez de 85% ou 90%? Uma segunda distinção evocada para restringir o argumento do risco indutivo é a distinção entre crença e aceitação, ou, nos termos de Lacey, entre assegurar (holding) e endossar (endorsing). Com base nessa distinção, Claudio Reis argumenta que a tese da imparcialidade de Lacey é compatível com o argumento do risco indutivo. Crer ou assegurar que p é “fazer o juízo de que p pertence ao conhecimento científico estabelecido”, enquanto aceitar ou endossar p “é fazer o juízo de que a evidência que sustenta p é suficientemente forte para que a legitimidade das ações informadas por ela não seja desafiada com base do fato de que p tem apoio empírico insuficiente” (Cern, 2021, p. 210). A imparcialidade seria aplicada apenas à atitude de crer ou assegurar, ao passo que o argumento do risco indutivo abarcaria apenas a atitude de aceitar ou endossar. A dificuldade é que esta distinção entre crer/assegurar e aceitar/endossar precisa ser estabelecida. Se se pretende que essa distinção se baseie no contraste entre razões epistêmicas e razões práticas, como se a aceitação ou o endosso fosse movido apenas por razões práticas, então a distinção que se obtém não faz justiça ao argumento do risco indutivo. Heather Douglas concorda que valores não-cognitivos não são razões para 270 aceitar ou rejeitar hipóteses científicas. O seu argumento é que eles operam indiretamente para determinar se a evidência disponível é suficiente ou não para aceitar uma determinada teoria. O que precisa ser estabelecido é que a evidência suficiente para crer, caso a crença seja algo distinto da aceitação, não é afetada por valores nãocognitivos. Se Cliord (2010) estiver correto, isso não pode ser o caso, pois não há como desconectar severamente a crença de ações e, por conseguinte, os potenciais efeitos da crença repercutem sobre a evidência suficiente para ela. Ao julgar se uma embarcação está segura para a navegação, faz toda a diferença se ela é uma embarcação tripulada ou uma embarcação de teste completamente automatizada para o transporte apenas de produtos. A evidência que o armador precisa ter para crer na segurança da embarcação não é a mesma nos dois casos. Por fim, se a crença fosse desconectada da ação e do valor dos seus efeitos, é difícil ver com base em que determinaríamos a suficiência da evidência para crer. Salientei, na seção 4.1, que, devido à importância da ciência em sociedades democráticas para a promoção do bem-estar social, o seu objetivo não deve ser visto mais apenas como o de descobrir como a realidade é, mas o de descobrir verdades que sejam interessantes para a comunidade a que ela serve. Essa contingência histórica tem, portanto, impacto sobre como devemos pensar o ideal de ciência, o que vem sendo reiteradamente sublinhado por Philip Kitcher (2001, 2011). Nesse contexto, o resgate das ideias de Du Bois por Liam Bright (2018) são muito pertinentes, já que Du Bois defende o ideal de ciência como livre de valores justamente por ela ter esse papel preponderante nas sociedades democráticas. A primeira consideração a partir de Du Bois envolve um reparo no que foi dito acima sobre o objetivo da ciência. Segundo Liam Bright, a concepção de Du Bois é mais nuançada. Ele distingue o objetivo imediato ou direto da ciência do objetivo mediato ou indireto da ciência. O primeiro é a busca pura e simples da verdade, enquanto o último é a reforma social e a melhoria das nossas condições de vida, e, por conseguinte, a busca por “informação que pode ser frutiferamente usada para guiar políticas públicas em estados democráticos” (Bright, 2018, p. 2.231). O primeiro é o que motiva e deve motivar o cientista qua cientista, enquanto o segundo é o que motiva o político ou o 271 agente público responsável por políticas públicas. O segundo objetivo afeta a ciência de maneira substantiva, pois é ele que orienta como a instituição da ciência deve ser estruturada e organizada. É com base inclusive no objetivo mediato que Du Bois sustenta que o objetivo imediato da ciência deve ser a busca desinteressada pela verdade. Para que o objetivo mediato seja atingido, em sociedades democráticas, é crucial que a população confie na ciência. Sem esta confiança, não haverá cooperação da população na implementação das políticas públicas, prejudicando, portanto, o seu alcance e eficácia. Por exemplo, uma população desconfiada da segurança das vacinas não participará massivamente das campanhas de vacinação, mesmo em países que adotem a obrigatoriedade da vacinação para certos segmentos da população. Du Bois também assume que a população civil tende a desconfiar de cientistas se eles são vistos como engajados com uma agenda política em particular. Segundo Liam Bright, essa é uma premissa empírica para a qual Du Bois não oferece apoio, embora seja uma suposição razoável (2018, p. 2233). Concedida essa premissa, chegamos à conclusão de que os cientistas devem buscar a verdade imparcialmente para que a ciência possa realizar o seu objetivo mediato. O caso do biólogo molecular Gilles-Eric Séralini ajuda a ilustrar a consideração sobre a importância da imparcialidade do cientista. Ele fez um estudo por dois anos com ratos alimentados com milho g e n e t i c a m e n t e m o d i f i c a d o. A c o n c l u s ã o d e s t e e s t u d o – posteriormente retratado – foi a de que esses ratos tiveram uma propensão maior a adquirir câncer (Séralini, 2012). Contudo, sabe-se que ele é também um ativista contra alimentos geneticamente modificados. Além disso, críticos mostraram que a sua amostra de ratos era muito pequena e que a cepa de rato usado era muito propensa a adquirir câncer. Seus resultados seriam assim pouco confiáveis (Carrier, 2022, p. 06). Dada a sua agenda interessada, pode ser razoável supor que o público tenderá a desconfiar das suas conclusões e que isso pode ter impacto sobre qualquer medida pública de controle ou regulamentação de alimentos geneticamente modificados. De modo semelhante, como já comentamos, o interesse pelo lucro da indústria farmacêutica também pode contaminar a confiança que a população deposita nos resultados das suas pesquisas. Nem todo movimento antivacina é anticiência. Por fim, a 272 própria ciência, ao se deixar levar pela urgência de publicar e se transformar em uma ciência industrial, atravessada por práticas e interesses empresariais, fomenta uma atmosfera em que “menos motivos temos para esperar que os resultados científicos sejam neutros” (Cupani, 2007, p. 128). Contudo, se aceitarmos que o cientista qua cientista deve buscar a verdade de modo imparcial e não trazer valores não-cognitivos para a pesquisa, como ele poderá determinar se a evidência disponível é suficiente para aceitar ou rejeitar uma hipótese que ele está investigando? Uma solução que, segundo Liam Bright, teria sido adotada por Du Bois (2018, p. 2245) e foi explicitamente defendida por Richard Jerey (1956) em sua resposta a Rudner é a de que o cientista qua cientista não tem que aceitar ou rejeitar hipóteses, mas limitar-se a enunciar a sua probabilidade de ser verdadeira. Assim, temos uma divisão das tarefas mais adequadas ao ideal da ciência como livre de valores. As autoridades públicas que farão uso do conhecimento científico é que devem decidir se aceitam ou não uma determinada hipótese científica. Para tanto, elas considerarão as consequências práticas da aceitação ou rejeição da hipótese-alvo e avaliarão essas consequências com base em valores sociais e morais. Os cientistas apenas enunciam a evidência, a teoria e o quanto aquela evidência torna a teoria provável, mas não se comprometem em dizer que a evidência disponível é suficiente para aceitar ou rejeitar a teoria. Assim, não precisam fazer uso de valores não-cognitivos. Essa estratégia contorna o argumento do risco indutivo. Ela é reforçada pela consideração de que cientistas não são eleitos, ao passo que agentes públicos, se não são eleitos, são pelo menos membros de instituições que estão sob a responsabilidade do governo e, portanto, gozam de representatividade. Se temos no horizonte o objetivo mediato da ciência em uma sociedade democrática, então seria muito antidemocrático que os cientistas trouxessem os seus valores morais e sociais para a aceitação ou rejeição de teorias científicas. Embora esses argumentos em favor do ideal da ciência como livre de valores sejam bastante razoáveis, eles também enfrentam dificuldades. Algumas são teóricas, outras são de ordem prática. Rudner (1953, p. 4) já havia antecipado a proposta de Jerey e sua resposta é que o juízo de que a hipótese H tem a probabilidade X de 273 ser verdadeira é equivalente à aceitação da hipótese de segunda ordem de que H tem a probabilidade X. Assim, o juízo do cientista não estaria livre de valores não-cognitivos. A dificuldade de ordem prática é que não é tão simples operacionalizar a separação entre o papel de avaliação de risco, que caberia ao cientista, e o gerenciamento de risco, que caberia ao agente público (Douglas, 2009, p. 140). Por um lado, o agente público seria sobrecarregado de informações que ele não sabe como manejar. Ele quer saber qual teoria deve considerar sobre um determinado assunto, não que há uma dezena de hipóteses e teorias sobre esse assunto e as suas respectivas probabilidades. Além disso, o agente público não é capacitado para extrair as consequências de uma hipótese científica. Quem sabe fazê-lo é o cientista. Por outro lado, o cientista, ao explorar as consequências de uma teoria científica para avaliar o quão apoiada ela é pela evidência, precisa ser orientado sobre a área específica de interesse – e.g., para a formulação de uma política pública – em relação a qual ele extrairá as consequências da teoria-alvo. Quem pode indicá-la é o agente público. Assim, ao que tudo indica, cientistas e agentes públicos precisam trabalhar juntos para que tanto a avaliação de risco quanto o gerenciamento de risco funcionem adequadamente. Em resposta à consideração de que o cientista não é eleito e, portanto, não deveria trazer os seus valores sociais e morais para a pesquisa, a sugestão é que autoridade pública indique ao cientista quais valores não-cognitivos ele deve considerar. Isso se aplica às situações mais concretas em que cientistas estão trabalhando conjuntamente com agentes públicos para a formulação de uma política pública. Fora desse contexto, cientistas ainda assim podem aceitar ou rejeitar hipóteses científicas, desde que se apoiem em valores não-cognitivos representativos da sociedade. Mais uma vez, a proposta de ciência bem-ordenada é oportuna. Caberia a entes representativos da sociedade civil fornecer o conjunto de valores nãocognitivos que auxiliariam os cientistas a avaliar a aceitação e rejeição de hipóteses científicas. Essa proposta tem a vantagem de tornar públicos e explícitos os valores não-cognitivos que estarão presentes mesmo nas atividades propriamente científicas, permitindo a sua contínua discussão e correção. Essa talvez seja a melhor estratégia para que a ciência cumpra o seu fim mediato sem abrir mão dos valores não-cognitivos na atividade de aceitação e rejeição de 274 hipóteses e, ao mesmo tempo, sem ser politizada, minimizando as chances de perder a confiança perante o público. 6. Ciência como uma atividade social adaptativa e situada Apesar de ter oferecido respostas para alguns dos principais questionamentos sobre a legitimidade de valores não-cognitivos na aceitação e rejeição de hipóteses e teorias científicas, penso que a resistência de fundo à presença de valores na ciência pode ser amenizada por uma reconcepção do conhecimento científico. Como disse no início do capítulo, essa resistência em grande medida repousa sobre a dicotomia entre fato e valor. Uma concepção de cognição que já a entende como imbricada com valores nos permite entender a presença de valores na ciência como um corolário. Por falta de espaço, a concepção que tenho em mente será apenas esboçada nesta seção. Espero, no entanto, que os contornos oferecidos sejam suficientes para obter uma compreensão do seu alcance. Entendo que temos conhecimento de algo, onde esse algo pode ser um sapato, uma maçã, uma peça musical ou mesmo uma teoria, na medida em que temos uma habilidade ou conjunto de habilidades para resolver tarefas que envolvam esse algo (Carvalho, 2018b, p. 21-22). Vou chamar essa concepção de concepção ecológica do conhecimento, pois ela é inspirada na abordagem ecológica da percepção,6 como ficará claro adiante. O conhecimento serve para guiar a nossa ação e quanto mais complexa for a tarefa com a qual estamos engajados, mais hábeis temos de ser em lidar com o que estamos interagindo. Ampliamos o conhecimento acerca de X melhorando ou ampliando as habilidades para lidar de modo bem sucedido com X. Em outras palavras, o conhecimento é adaptativo. Como X é primariamente conhecido em termos do que podemos fazer com X, o conhecimento não é aperspectival. Pelo contrário, o conhecimento que um agente tem de X é relativo às próprias habilidades do agente. O conhecimento que eu tenho de um automóvel difere muito do conhecimento que um mecânico tem do mesmo automóvel. Eu sei dirigir o automóvel e realizar algumas Ela também é inspirada no pragmatismo e na tese ryliana de que o saber-fazer precede o saber-que (Ryle, 1945). 6 275 operaçõe s básicas de manutenção para pre ser var o seu funcionamento ao longo do tempo. O mecânico sabe montar e desmontar o automóvel, realizar diagnósticos, identificar peças danificadas e consertá-las. O mesmo automóvel é conhecido por mim e pelo mecânico de maneira diferente, já que cada um conhece e compreende o automóvel em termos das suas próprias habilidades. Como o que um agente conhece é conhecido em termos das suas habilidades, o que é conhecido tem significado para o agente e não é, portanto, avaliativamente neutro. Por fim, as habilidades que apoiam o conhecimento são situadas, isto é, elas só são exercidas quando as condições ambientais são favoráveis. Uma habilidade, que resulta de um processo adaptativo, tem um ambiente específico como o seu complemento. A habilidade de ficar de pé, por exemplo, envolve um entorno em relação ao qual orientamos a postura e mantemos o equilíbrio corporal (Carvalho, 2022a, p. 7-8). Com efeito, habilidades “só podem ser descritas em termos de uma relação do organismo com o seu ambiente” (Fuchs, 2018, p. 101). Consequentemente, o conhecimento também é situado. O que dissemos do conhecimento em geral ajusta-se muito bem à abordagem ecológica da percepção, que é o tipo mais simples de conhecimento (Gibson, 2015, p. 251). Segundo a abordagem ecológica, a função da percepção é guiar a ação. O que percebemos são as aordances dos objetos e eventos. Aordances são possibilidades de ações. Elas são relações entre o organismo e o ambiente. Um degrau que é percebido como escalável por mim em virtude das minhas propriedades corporais e da minha habilidade de escalar não é visto como escalável por uma criança de seis meses de idade. A superfície da água não oferece suporte ou locomoção para seres terrestres como nós, mas oferece suporte para mosquitos bem leves. Os organismos percebem o mundo em termos do que eles podem fazer nesse mundo. O que é percebido tem significado para o organismo justamente por ser percebido em termos de possibilidades de ações que dizem respeito a ele. Um alimento não é primariamente percebido como tendo uma forma determinada, mas como sendo comestível. Ser ou não um alimento não é uma propriedade intrínseca de um objeto, mas relacional. O que é alimento para nós pode não ser para outra espécie e vice-versa. Aordances rompem como a dicotomia entre objetivo e subjetivo (Gibson, 2015, p. 121) e também com a dicotomia entre 276 factual e avaliativo. Um penhasco é percebido por seres terrestres como oferecendo queda e dano, mas não por aves capazes de voar. Um predador oferece defesa ou fuga. Aordances têm valência. Estados afetivos participam da percepção, qualificando a relação do organismo com o seu ambiente (Carvalho, 2022b, p. 40-47). Uma colina é percebida como mais ou menos escalável conforme estejamos mais ou menos descansados. Em um mesmo ato perceptivo, o organismo nota a sua relação com o ambiente – e.g., propicia escalar – e a qualidade dessa relação – e.g., posso escalar agora –, cognição e valoração não se separam.7 A ciência é uma extensão da percepção. Assim como um cego aprende a sentir o chão adiante com uma bengala, estendendo deste modo a sua capacidade de percepção, também alargamos a nossa capacidade de entender e lidar com a natureza pela incorporação de uma teoria (Polanyi, 2009, p. 17). Aprendemos a fazer mais coisas com um determinado tipo de objeto quando incorporamos uma teoria. Por exemplo, ao incorporar a teoria atômica, aprendemos a manejar elétrons de modo a dispará-los por um canhão de elétrons. Não há como assimilar uma teoria sem assimilar os seus usos, efeitos e aplicações. Enquanto o aprendiz de cientista faz apenas exercícios simbólicos com a teoria, extraindo as suas consequências, pode-se dizer que ele está conhecendo a teoria através das habilidades inferenciais, mas ele ainda não está conhecendo o mundo através das habilidades teóricas. Ele passará a entender o mundo através das teorias e das suas habilidades teóricas quando começar a arranjar o laboratório para testar a teoria e a relacioná-la a outros conhecimentos e restrições para aplicá-la também fora do laboratório. Incorporar uma teoria acerca de X envolve ampliar o que se pode fazer com X. Como salientou Polanyi (2009, p. 17), “conhecimento verdadeiro reside na nossa habilidade de usá-lo”. Embora eu tenha falado do cientista em particular, é importante salientar que as habilidades em jogo quando Na filosofia moral, a discussão em torno dos chamados “conceitos espessos” nos convida a uma conclusão semelhante. Os predicados como “cruel”, “gentil”, “rude”, “amoroso” e muitos outros são ao mesmo tempo descritivos e avaliativos (Putnam, 2008, p. 54). Segundo a leitura mais forte, a imbricação desses elementos impossibilitaria separar o componente factual do avaliativo. Esse resultado é melhor apreciado se compreendemos que os predicados mencionados apontam para relações, no caso, relações de tratamento, que não são instanciadas sem uma qualidade avaliativa específica. 7 277 falamos de conhecimento científico não são propriedades de cientistas individuais, mas da comunidade científica, muita coordenação e ação conjunta está envolvida na atividade científica. É a habilidade conjunta da comunidade de lidar com o mundo que está por trás do conhecimento científico. Assim, o conhecimento científico é uma atividade social adaptativa e situada. O mundo ganha significado para a comunidade científica à medida que ela amplia a sua capacidade de lidar e interagir com o mundo, pois é em termos da sua habilidade conjunta que o mundo é conhecido. Se tomamos o caso da dioxina, a comunidade científica conhece cada vez mais a dioxina visto que é capaz de lidar com ela de modo bem sucedido em diferentes tarefas e contextos. Um desses contextos é o da liberação da substância na atmosfera em regiões urbanas. Se, neste contexto, a toxicidade é um dos seus efeitos, a comunidade científica precisa ser capaz de notá-la e controlá-la. Não conseguirá fazê-lo sem apelar a valores sociais e morais. A sensibilidade à toxicidade da dioxina é mais um caso em que cognição e avaliação não se separam. Na perspectiva ecológica do conhecimento, a sugestão de que o cientista não aceite ou rejeite teorias ou a sugestão de que ele tenha apenas a atitude de crer/assegurar uma teoria, onde crer e assegurar são entendidos como completamente desconectados da ação, simplesmente não faz sentido. Essas sugestões nos levam a pensar o conhecimento como uma forma de contemplação pura e desengajada de proposições. A perspectiva ecológica do conhecimento rejeita essa imagem. Conhecimento tem a ver com a nossa habilidade de manter contato próximo com o ambiente, contato que é ampliado pela incorporação de teorias. Conhecer “é em si mesmo um modo de ação prática” (Dewey, 1929, p. 107). Em outras palavras, conhecer é algo que fazemos. O uso de uma teoria incorporada para a solução de problemas sociais, como a formulação de uma política pública, não é uma exceção ou um episódio de “mera aplicação” do conhecimento científico. É antes um caso de ampliação do conhecimento científico na medida em que ampliamos a nossa capacidade de interagir com o entorno, incluindo o entorno social. Isso não significa que o cientista está liberado para usar os seus valores sociais e morais na aceitação e rejeição de teorias. O risco de politização da ciência e o efeito disso sobre a confiança social na ciência não podem ser negligenciados. As restrições mencionadas no fim da seção anterior prevalecem. Em 278 sociedades democráticas, ao lidar com problemas sociais, a comunidade científica tem de apoiar-se em valores que sejam representativos. A questão de como determinar quais valores morais e sociais são representativos da sociedade civil está em aberto, mas não há veto ou resistência a sua presença na concepção ecológica do conhecimento. Se valores morais e sociais são cruciais para aceitar ou rejeitar uma teoria científica para fins de ação e se o conhecimento científico repousa sobre a habilidade conjunta de agir, então valores morais e sociais são partes integrantes e não elimináveis do conhecimento científico.8 Referências AYER, A. J. Language, Truth and Logic. New York: Dover Publications, 1970. BACEVIC, J. There’s no such thing as just ‘Following the science’ – coronavirus advice is political. The Guardian: Opinion, 28 abr. 2020. Disponível em: <https://www.theguardian.com/commentisfree/2020/apr/28/theres-no-suchthing-just-following-the-science-coronavirus-advice-political>. BARKER, G.; KITCHER, P. Philosophy of science: a new introduction. New York: Oxford University Press, 2014. BORTOLOTTI, L. Etica. In: BORTOLOTTI, L. Introdução à filosofia da ciência. Lisboa: Gravida, 2010. p. 248-294. BRIGHT, L. K. Du Bois’ democratic defence of the value free ideal. Synthese, v. 195, n. 5, p. 2227-2245, 2018. CARRIER, M. What does good science-based advice to politics look like? Journal for General Philosophy of Science, v. 53, n. 1, p. 5-21, 2022. CARVALHO, E. M. As humanidades e o uso adequado das ciências. 2020. Disponível em: <https://estadodaarte.estadao.com.br/humanidades-cienciaseros/>. CARVALHO, E. M. Goodman e o projeto de uma definição construtiva de “indução válida”. Principia, v. 22, n. 3, p. 439-460, 2018a. CARVALHO, E. M. Overcoming intellectualism about understanding and knowledge: a unified approach. Episteme & Logos, v. 9, n. 1, p. 7-26, 2018b. CARVALHO, E. M. An ecological approach to hinge propositions. Sképsis, v. XIII, n. 25, p. 1-16, 2022a. CARVALHO, E. M. Aective aordances: direct perception meets aectivity. Perspectiva Filosófica, v. 49, n. 5, p. 29-51, 2022b. Agradeço os comentários e sugestões do colega Cláudio Reis (UFBA) a uma primeira versão do presente capítulo. Este texto contou com apoio da CAPES e financiamento do CNPq, projeto n. 306795/2021-3. 8 279 CERN. Does CERN create black holes? Angels & Demons: the science behind the story. Disponível em: <https://angelsanddemons.web.cern.ch/faq/blackhole.html>. CLIFFORD, W. F. A ética da crença. In: MURCHO, D. (ed.). A ética da crença. Lisboa: Editorial Bizâncio, 2010. p. 97-136. COOK, J. et al. Quantifying the consensus on anthropogenic global warming in the scientific literature. Environmental Research Letters, v. 8, n. 2, e024024, p. 01-07, 2013. COOK, J. et al. Consensus on consensus: a synthesis of consensus estimates on human-caused global warming. Environmental Research Letters, v. 11, n. 4, e048002, p. 01-07, 2016. CUPANI, A. A ciência e os valores humanos: repensando uma tese clássica. Philósophos, v. 9, n. 2, p. 115-134, 2007. DEWEY, J. The quest for certainty. New York: Minton, Balch & Company, 1929. DOUGLAS, H. Science, policy and the value-free ideal. Pittsburgh: University of Pittsburgh Press, 2009. DOUGLAS, HEATHER. Inductive risk and values in science. Philosophy of Science, v. 67, n. 4, p. 559-579, 2000. ELLIOTT, K. C. Values in science. Cambridge: Cambridge University Press, 2022. FUCHS, T. Ecology of the brain: the phenomenology and biology of the embodied mind. Oxford: Oxford University Press, 2018. GIBSON, J. J. The ecological approach to visual perception. New York: Psychology Press, 2015. GOLDIM, J. R. Caso Tuskegee. Disponível em: https://www.ufrgs.br/bioetica/ tueke2.htm. Acesso em: 18 jan. 2023. GOODMAN, N. Fact, fiction, and forecast. Cambridge, MA: Harvard University Press, 1983. HEMPEL, C. G. Science and human values. In: HEMPEL, C. G. Aspects of scientific explanation and other essays in the philosophy of science. New York: The Free Press, 1965. p. 81-96. JEFFREY, R. C. Valuation and acceptance of scientific hypothesis. Philosophy of Science, v. 23, n. 3, p. 237-246, 1956. JUCÁ, B. Escândalo da Prevent Senior ganha rosto com depoimentos de médico e paciente à CPI da Pandemia. Disponível em: <https:// brasil.elpais.com/brasil/2021-10-07/escandalo-da-prevent-senior-ganha-rostocom-depoimento-de-medico-e-paciente-a-cpi-da-pandemia.html>. KITCHER, P. Science, truth, and democracy. Oxford: Oxford University Press, 2001. KITCHER, P. Science in a democratic society. New York: Prometheus Books, 2011. 280 LACEY, H. Valores e atividade científica 2. São Paulo: Editora 34, 2010. LLOYD, E. A. et al. Climate scientists set the bar of proof too high. Climatic Change, v. 165, n. 3, p. 1-10, 2021. LONGINO, H. E. Science as social knowledge: values and objectivity in scientific inquiry. Princeton: Princeton University Press, 1990. LUI, L. et al. A potência do SUS no enfrentamento à Covid-19: alocação de recursos e ações nos municípios brasileiros. Trabalho, Educação e Saúde, v. 20, e00247178, p. 01-16, 2022. MERTON, R. K. Ensaios de sociologia do conhecimento. São Paulo: Editora 34, 2013. MINISTÉRIO DA SAÚDE (ed.). Vírus Zika no Brasil: a resposta do SUS. Brasília: Ministério da Saúde, 2017. Disponível em: <https://bvsms.saude.gov.br/bvs/ publicacoes/virus_zika_brasil_resposta_%20sus.pdf>. ORESKES, N. The scientific consensus on climate change: how do we know we’re not wrong? In: LLOYD, E. A.; WINSBERG, E. (ed.). Climate modelling: philosophical and conceptual issues. Cham: Springer International Publishing, 2018. p. 31-64. POLANYI, M. The tacit dimension. Chicago and London: The University of Chicago Press, 2009. POWELL, J. L. The consensus on anthropogenic global warming matters. Bulletin of Science, Technology & Society, v. 36, n. 3, p. 157-163, 2016. PUTNAM, H. O colapso da verdade e outros ensaios. Aparecida: Ideias & Letras, 2008. REICHENBACH, H. The rise of scientific philosophy. Los Angeles: University of California Press, 1951. REIS, C. R. M. Valores na ciência: devemos dar adeus à imparcialidade? Principia, v. 25, n. 22, p. 199-218, 2021. ROONEY, P. The borderlands between epistemic and non-epistemic values. In: ELLIOTT, K. C.; STEEL, D. (ed.). Current controversies in values and science. New York: Routledge, 2017. p. 31-46. RUDNER, R. The scientist qua scientist makes value judgments. Philosophy of Science, v. 20, n. 1, p. 01-06, 1953. RYLE, G. Knowing how and knowing that. Proceedings of the Aristotelian Society, v. 46, p. 01-16, 1945. SELLARS, W. Empirismo e filosofia da mente. Petrópolis: Editora Vozes, 2008. SÉRALINI, G.-E. et al. Long term toxicity of a roundup herbicide and a rounduptolerant genetically modified maize. Food and Chemical Toxicology, v. 50, n. 11, p. 4221-4231, 2012. 281