VALORES NA CIÊNCIA E A PERSPECTIVA
ECOLÓGICA DO CONHECIMENTO CIENTÍFICO
Eros Moreira de Carvalho
Ideias centrais do capítulo:
• A dicotomia entre fato e valor apoia o ideal de ciência como livre de
valores.
• Valores não-cognitivos estão presentes em todas as etapas da prática
científica.
• Suposições de fundo e valores são necessários para estabelecer o
que é evidência para o quê.
• Os riscos atrelados ao uso de uma hipótese científica afetam o limiar
de evidência para a aceitação dessa hipótese.
• A distinção entre teoria e aplicação é insuficiente para apoiar o ideal
de ciência como livre de valores.
• O conhecimento científico é situado e sempre envolve alguma
aplicação ou uso.
• A perspectiva ecológica do conhecimento elimina a dicotomia entre
fato e valor.
1. Introdução
A pandemia de Covid-19 colocou em destaque a discussão sobre as
relações entre a ciência e os valores. Cientistas do mundo inteiro
reorientaram as suas pesquisas para satisfazer a demanda social por
soluções para os vários problemas colocados pela pandemia.
Praticamente todas as grandes áreas foram envolvidas, não só as áreas
médicas, na busca de uma vacina e de tratamentos eficazes para a
Covid-19, mas também as áreas sociais e humanas, na busca de
estratégias para minimizar os seus impactos econômicos e sociais e
monitorar os efeitos e sequelas sobre a saúde das relações e
organizações humanas. A pandemia também pressionou as
metodologias de pesquisa. Dada a urgência de encontrar soluções e
respostas no curto e médio prazo, as metodologias para a pesquisa de
250
vacina foram calibradas. De modo semelhante, tratamentos novos que
em circunstâncias normais seriam minuciosamente testados e
validados quanto à eficácia e segurança antes de serem liberados
foram colocados à disposição para a população. Quanto à aplicação do
conhecimento científico, as autoridades públicas foram as mais
pressionadas. No mundo inteiro, as autoridades tiveram que dar
respostas rápidas sobre questões complexas acerca da mobilidade
social, manejo hospitalar e de recursos humanos, prioridade de
investimentos e outros. Para justificar as suas decisões perante o
público, muitas delas diziam estar “seguindo a ciência”. Contudo, como
ficou claro diante de respostas antagônicas de diferentes autoridades
públicas – e.g., exigir versus recomendar o uso de máscaras em locais
públicos fechados –, não há uma única maneira de seguir a ciência.1
Em todos esses casos, valores sociais e morais parecem afetar de uma
maneira ou de outra a atividade científica.
Apesar dessas situações em que valores parecem afetar a
atividade científica, a ideia de que a ciência – ou ao menos as
atividades científicas que são consideradas as mais essenciais para a
ciência – deve ser livre de valores é bastante difundida. Neste capítulo,
vou discutir essa tese, normalmente entendida como um ideal de
ciência. Na segunda seção, introduzo alguns conceitos e distinções
importantes para entender a tese, como a diferença entre valores
cognitivos e não-cognitivos. Na terceira seção, discuto o papel dos
valores na seleção de problemas e na metodologia científica. Na quinta
seção, apresento dois argumentos canônicos contra o ideal da ciência
como livre de valores: o argumento da lacuna explicativa, de Helen
Longino (1990), e o argumento do risco indutivo, de Heather Douglas
(2009). Na quarta seção, discuto algumas respostas a esses
A ideia de que o apelo à ciência por si só seja uma justificação adequada para
decisões sobre políticas públicas é reveladora do prestígio de que a ciência ainda goza
na nossa sociedade. Mas é ao mesmo tempo enganosa, pois esconde a questão
pertinente de se o conhecimento científico está sendo bem ou mal usado. A
autoridade pública não pode se isentar dessa responsabilidade. O apelo à ciência é
vazio se não estão claros os valores e as demandas que a autoridade pública busca
atender. As humanidades em geral podem e devem nos ajudar a entender o que está
envolvido no uso adequado do conhecimento científico (Carvalho, 2020). Esse é um
esclarecimento importante para que cidadãos possam cobrar das autoridades públicas
as responsabilidades que lhes cabem quanto ao uso do conhecimento científico e para
desmascarar aquelas autoridades que estão fazendo um apelo meramente retórico à
ciência (Bacevic, 2020).
1
251
argumentos. Por fim, exploro e sustendo a ideia de que a reconcepção
da ciência como um atividade social situada e adaptativa supera a
dicotomia entre fato e valor que subjaz a discussão. Essa nova
concepção de ciência permite acomodar melhor os resultados dos
argumentos apresentados na terceira seção.
2. O ideal da ciência como livre de valores
Na filosofia da ciência anglófona, nas décadas de 50 e 60, a questão
sobre o papel dos valores na ciência foi levantada, e em resposta
consolidou-se, embora houvesse discordantes, a concepção da ciência
como livre de valores. Participaram do debate filósofos como
Reichenbach (1951), Hempel (1965), Rudner (1953) e Jerey (1956). Esse
período é marcado pelo empirismo lógico, movimento hegemônico na
filosofia da ciência à época. Além de rejeitar as filosofias
transcendentais e preconizar que todo conhecimento científico deve
ser rigidamente validado e controlado pela experiência sensorial, os
empiristas lógicos também defenderam a separação rígida entre fatos
e valores. Para os empiristas lógicos, valores não estão no mundo
físico. Quando alguém diz que “roubar é errado”, essa pessoa não está
enunciando um fato acerca do roubo, ela está apenas expressando a
sua atitude, de aprovação ou reprovação, em relação ao roubo. Não
haveria, assim, uma questão de fato sobre se o roubo é certo ou
errado. Certo e errado é apenas uma questão de atitude, de como nos
sentimos em relação a certos tipos de ações (Ayer, 1970, p. 107). A
psicologia e a sociologia podem investigar empiricamente quais
atitudes as pessoas têm diante de certos tipos de ações e quais fatores
contribuem para que elas tenham as atitudes que têm, e se há e em
que extensão há variações de atitudes entre indivíduos, grupos e
culturas, mas as atitudes elas mesmas não são fatos objetivos do
mundo. Elas são completamente subjetivas. Portanto, valores também
são subjetivos.
A partir da dicotomia entre fatos e valores, Reichenbach sustenta
que a concepção de conhecimento científico é e deve ser neutra em
relação a valores e que a própria ideia de conhecimento ético não faz
sentido. É assim porque, na sua concepção, o conhecimento não
contém elementos normativos ou prescritivos. O conhecimento
contém apenas elementos descritivos, ele descreve ou representa
252
corretamente os fatos do mundo (Reichenbach, 1951, p. 277). A
sentença “O ferro conduz eletricidade” apenas afirma um fato geral
acerca do ferro. Nenhum elemento valorativo ou prescritivo estaria
contido na sentença. Ela é verdadeira, mas tivesse o ferro outras
propriedades, essa sentença poderia ser falsa. Verdade e falsidade é
algo que se aplica às sentenças que descrevem fatos. Já os
proferimentos que expressam valores e diretrizes não são nem
verdadeiros nem falsos. “Não mate” não descreve um fato, nem é uma
tautologia, mas a exortação para se comportar de certa maneira
(Reichenbach, 1951, p. 280).
A ciência é controlada pela evidência e, portanto, teorias e
hipóte ses devem ser aceitas ou rejeitadas com base na
experimentação e observação. No entanto, essas últimas são limitadas
e finitas, ao passo que teorias e hipóteses fazem afirmações gerais que
vão além do que foi observado e experimentado. A afirmação de que o
ferro conduz eletricidade vai além da evidência constituída por todos
os pedaços de ferro que observamos conduzir eletricidade. Na
primeira metade do século passado, empiristas lógicos alimentaram a
esperança de que uma teoria da confirmação seria viável, isto é, uma
teoria que estipularia regras formais precisas para a aceitação e
rejeição de hipóteses face à evidência disponível. Esse projeto, no
entanto, fracassou e se mostrou inviável. Como Nelson Goodman
argumentou, qualquer porção finita de evidência suporta uma
quantidade indefinida de hipóteses concorrentes (Goodman, 1983, p.
75).2 Não haveria, portanto, critérios puramente sintáticos e formais
para a relação entre evidência e hipóteses. Uma solução encontrada foi
apelar para qualidades das hipóteses que servem como indícios da sua
verdade. Algumas dessas qualidades são: poder preditivo, poder
Suponha que todas as esmeraldas observadas até agora sejam verdes. Normalmente,
seríamos então levados a projetar a generalização de que todas as esmeraldas são
verdes. Goodman nota, no entanto, que poderíamos descrever a evidência disponível
afirmando que as esmeraldas observadas até agora são verzuis. “Verzul” é um
predicado definido por Goodman assim: algo é verzul se observado verde antes de t ou
azul depois de t (Goodman, 1983, p. 73-74). Todas as esmeraldas observadas até agora
são verzuis, o que parece, então, permitir a projeção da generalização de que todas as
esmeraldas são verzuis. O problema é que a primeira e a última hipóteses fazem
predições diferentes e contraditórias acerca da cor das esmeraldas que serão
observadas depois de t. Goodman não pretende que levemos a hipótese verzul a sério
na prática, mas se almejamos uma teoria formal da confirmação, ela coloca um desafio
incontornável. Para uma discussão da crítica de Goodman, cf. Carvalho (2018a).
2
253
explicativo, abrangência e escopo, consistência interna, coerência com
outras hipóteses e teorias já aceitas etc. Na filosofia da ciência mais
recente, é comum chamar essas qualidades de “valores cognitivos”.
Eles são usados para explicar as decisões e os juízos dos cientistas
quanto à aceitação ou rejeição de hipóteses e teorias diante da
evidência disponível.
Embora a noção de valor cognitivo pareça romper com a
dicotomia entre fato e valor, ela ainda não nos convida a reavaliar
profundamente essa dicotomia. O que se chama de “valores
cognitivos” são qualidades objetivas das hipóteses e teorias científicas
que são indícios confiáveis para a verdade dessas últimas. Pode-se
dizer que há fatos, rastreáveis indutivamente, que determinam se essas
qualidades são indícios confiáveis ou não da verdade. Há outras
qualidades de hipóteses e teorias que não se julga que sejam indícios
da sua verdade. É o caso da simplicidade e das qualidades estéticas.
Nesses casos, essas qualidades são normalmente tratadas como
fatores subjetivos e, portanto, não-cognitivos para a aceitação ou
rejeição de hipóteses. Nesse sentido, a expressão “valor cognitivo”
pode engendrar confusão, já que foi dito que valores, na visão
tradicional dos empiristas lógicos, são subjetivos. Não vou disputar por
palavras. Talvez fosse melhor chamar os valores cognitivos de “critérios
epistêmicos”, já que se pretende que sejam indícios objetivos e não a
expressão de meras atitudes.3 Em qualquer caso, para a nossa
discussão, o que importa reter é que o contraste entre valores
cognitivos e não-cognitivos ainda espelha a dicotomia tradicional entre
fato e valor e que os valores não-cognitivos, os quais englobam valores
Heather Douglas (2009, p. 92) sustenta precisamente que valores cognitivos, que na
sua taxonomia são chamados de “valores epistêmicos”, não são valores em sentido
estrito. Ela reserva a categoria de valores cognitivos para qualidades da teoria
científica que, embora não tenham nenhuma conexão com a sua verdade, ainda assim
ajudam o cientista a manejar e a pensar acerca dos fenômenos cobertos pela teoria.
Deste modo, diferente do que eu sugeri, a simplicidade seria, para ela, um valor
cognitivo, embora não epistêmico. Para os meus propósitos, o contraste entre valores
cognitivos e não-cognitivos, no sentido indicado, é suficiente. De qualquer forma, o
leitor deve ter em mente que não há consenso na literatura sobre a taxonomia dos
valores.
3
254
morais, estéticos e sociais, são atitudes subjetivas.4 Quando aplicados
a hipóteses e teorias, eles expressam uma atitude favorável ou
desfavorável à teoria, mas sem qualquer conexão com a sua verdade.
Assim, alguém pode preferir uma teoria porque ela é mais simples, bela
ou mais coerente com os seus valores morais. Os defensores do ideal
da ciência como livre de valores não negam que isso pode ocorrer. A
sociologia da ciência mostra que isso ocorre com certa frequência. No
entanto, eles sustentam que isso não deveria acontecer, isto é, o
cientista deve evitar que valores influenciem as suas decisões. Mais
precisamente, sustentam que a atividade científica não deve ser
afetada por valores não-cognitivos. Assim, a ciência se mantém
objetiva no seu propósito de alcançar teorias corretas e verdadeiras.
Ainda restam algumas distinções importantes. Quando se fala em
atividade científica, é comum subdividi-la em pelo menos quatro
etapas: a) a seleção de problemas, b) a formulação de metodologias, c)
a coleta, a caracterização e a interpretação dos dados e d) a avaliação
da hipótese científica. As duas primeiras são caracterizadas como
externas, isto é, como envolvendo interações com atividades nãocientíficas, e as duas últimas são caracterizadas como internas, isto é,
como atividades essencialmente científicas. Os defensores do ideal da
ciência como livre de valores não negam que valores não-cognitivos
afetem e possam legitimamente afetar as duas primeiras etapas. Como
já apontado no início do texto, as demandas da sociedade impactam a
seleção de problemas, e é esperado que seja assim. Do mesmo modo,
nossas preocupações morais com o bem-estar de humanos e animais
não-humanos afetam as metodologias de pesquisa que envolvem
humanos ou animais não-humanos. No entanto, para os defensores do
ideal da ciência como livre de valores, as duas últimas etapas não
devem ser afetadas por valores não-cognitivos, pois essas são as
etapas propriamente científicas. Para que a ciência mantenha-se
objetiva, valores não-cognitivos não devem afetar a caracterização e
É importante salientar que, na literatura, não é consensual que uma distinção clara e
precisa entre valores cognitivos, também chamados de “valores epistêmicos”, e valores
não-cognitivos pode ser estabelecida (Elliott, 2022, p. 5-6). Para uma discussão
aprofundada desse ponto, cf. Rooney (2017). Esses questionamentos são água para o
meu moinho, pois interpreto eles como evidência de que a separação rígida entre
cognição e valores não é sustentável, como será defendido na última seção deste
capítulo.
4
255
interpretação dos dados e muito menos a aceitação ou rejeição de
hipóteses científicas.
Para caracterizar o ideal da ciência como livre de valores com
uma precisão ainda maior, é oportuno visitar a distinção introduzida
por Hugh Lacey (2010, p. 40-44) entre imparcialidade, neutralidade e
autonomia. A imparcialidade é a ideia de que apenas valores cognitivos
podem influenciar a decisão quanto à aceitação ou rejeição de teorias
e hipóteses científicas. A neutralidade é a ideia de que as teorias
científicas e as estratégias de pesquisa aceitas não privilegiam
nenhuma perspectiva de valor moral ou social, isto é, as aplicações
dessas teorias e estratégias podem atender equitativamente diferentes
perspectivas de valor. Por fim, a autonomia é a ideia de que as
instituições científicas determinam as suas agendas e prioridades de
pesquisa sem interferência externa. O ideal da ciência como
maximamente livre de valores envolveria a defesa de que a ciência
deve ser imparcial, neutra e autônoma. Atualmente, não é comum a
defesa dessa tese extrema. Dada a divisão entre as etapas da atividade
científica, é bastante consensual aceitar que a ciência não é nem deve
ser completamente autônoma. Por exemplo, se a ciência vai investir na
busca da cura do câncer ou não é uma demanda social, embora ela
tenha de ser autônoma para determinar quais problemas ela deve
atacar e em que ordem de prioridade para encontrar a cura para o
câncer. A neutralidade também não parece ser exequível. Por exemplo,
a pesquisa agrícola pode adotar tanto uma estratégia biotecnológica
quanto uma estratégia agroecológica. Essas estratégias não são
neutras em relação a perspectivas de valor de fundo (Lacey, 2010, p.
50). A primeira estratégia favorece a perspectiva de controle e
produtividade, enquanto a segunda a perspectiva de preservação
ambiental e igualdade social. Seria muito oneroso e demandante a
norma de investigar e aceitar apenas teorias científicas que atendam
de modo equitativo quaisquer perspectivas de valor. Resta a
imparcialidade. Ela é atualmente a ideia mais defendida por aqueles
que ainda sustentam o ideal de ciência como livre de valores. Assim,
podemos entender esse ideal como o comprometimento com a
seguinte tese:
A ciência deve ser imparcial. Valores não-cognitivos não devem
afetar as decisões dos cientistas nas atividades propriamente
científicas, que são a coleta, caracterização e descrição dos
256
dados e a aceitação ou rejeição de teorias e hipóteses científicas.
Apenas valores cognitivos podem participar dessas decisões.
3. Valores na escolha de problemas e na metodologia de pesquisa
Como já foi salientado, não é muito controverso que valores nãocognitivos (sociais, morais, estéticos etc.) orientem as etapas externas
da atividade científica. Ainda assim, há questões importantes e
interessantes sobre como esses valores interagem com a ciência.
3.1 A escolha de problemas
Saindo dos casos de grande urgência social, como a pandemia de
Covid-19, quando há consenso sobre o que precisa ser investigado, não
é tão claro quais valores sociais podem e devem orientar a seleção de
problemas para a investigação científica. A principal questão aqui é:
quem decide e quais valores devem orientar essa decisão? A esse
respeito, é importante considerar que a ciência assumiu um papel
destacado nos estados nacionais contemporâneos, auxiliando-os na
promoção do bem-estar social e oferecimento de serviços públicos.
Não à toa, hoje os principais financiadores da ciência são os próprios
estados, mesmo em sociedades mais inclinadas ao liberalismo
econômico. Nesse contexto, não é razoável que as principais diretrizes
sobre que áreas de pesquisa privilegiar estejam exclusivamente nas
mãos dos cientistas. Em sociedades democráticas, como a ciência é
em grande medida financiada pelo contribuinte, ela precisa responder
às demandas da sociedade. As agências de financiamento cumprem
esse papel através da indução de pesquisa em áreas de interesse
social. Ao mesmo tempo, isso não significa que os cientistas não
devam ter alguma autonomia sobre essa questão, e por duas razões.
Primeiro, os cientistas são as autoridades sobre quais programas de
pesquisa são promissores e fecundos. Seria improdutivo direcionar
fortemente a atividade científica para áreas que se mostram
recalcitrantes à investigação científica. Segundo, como já aprendemos
pela história, o próprio progresso da ciência decai se ela é
constrangida demais pelas demandas práticas e imediatas e não é
deixada perseguir interesses teóricos não-imediatos colocados pelos
próprios cientistas (Polanyi, 2009, p. 3). Há também a dificuldade não-
257
negligenciável de como determinar o que é de interesse social. É a
própria população civil quem decide, ou o governo, ou ainda
pesquisadores especializados em bem-estar social e políticas públicas?
Uma possibilidade é que todos esses setores participem
conjuntamente das decisões sobre que áreas privilegiar. Na proposta
de ciência bem-ordenada de Philip Kitcher (2011), essas decisões
devem resultar de um processo deliberativo que envolve
representantes da sociedade civil, do governo e especialistas. Ao
menos em sociedades democráticas, esse parece ser um bom modelo
decisório para que a ciência cumpra o seu objetivo, que não é o de
apenas descobrir como a realidade é, mas o de descobrir verdades
que sejam interessantes para a comunidade a que ela serve.
Em áreas onde a pesquisa científica é financiada sobretudo por
grandes empresas privadas, algumas distorções podem surgir. A
pesquisa na área médica é financiada em grande medida pela indústria
farmacêutica. Essa indústria, no entanto, se concentra nos países mais
ricos e desenvolvidos. Uma consequência disso é a distribuição muito
desigual dos recursos para a pesquisa sobre doenças que afetam
diferentes populações do globo (Barker; Kitcher, 2014, p. 153). Há
muito mais recursos para pesquisa sobre o câncer do que sobre a
malária. Como a malária afeta apenas as populações mais vulneráveis e
pobres do sul global, não há incentivo financeiro para que a indústria
farmacêutica se engaje na busca de uma cura para ela. Esse é um
problema difícil de resolver, pois envolve não só coordenação entre
público e privado, mas também entre nações. Parece claro, no entanto,
que países em desenvolvimento não podem abrir mão de pesquisa
própria se almejam soluções para problemas que afetam o bem-estar
de suas populações. O caso da epidemia de Zika no nordeste brasileiro
entre 2014 e 2016 é exemplar. Não fosse o engajamento da Fiocruz,
instituição pública de pesquisa, e o apoio logístico do Sistema Único
de Saúde (SUS) (Lui et al., 2022), provavelmente não se teria obtido em
tempo as estratégias e os conhecimentos necessários para debelar a
epidemia (Ministério da Saúde, 2017). O financiamento privado da
pesquisa, além de colocar em destaque a oposição entre interesses
sociais e privados – conhecimento para a promoção do bem-estar
social versus a promoção do lucro privado –, também coloca pressão
sobre uma das normas fundamentais da ciência. Segundo o sociólogo
da ciência Robert Merton (2013, p. 190), as descobertas da ciência
258
devem ser dirigidas para a comunidade, elas constituem a herança
comum para as gerações futuras de cientistas. A dinâmica do
progresso científico depende que o conhecimento conquistado
permaneça público para escrutínio e como ponto de partida para
novas investigações. No entanto, essa norma é severamente limitada
pela pesquisa privada e a política de patentes.
Embora seja inegável que valores sociais possam influenciar as
decisões sobre quais áreas são de interesse de pesquisa, a questão
sobre quais valores sociais podem ter esse papel e como e quem toma
essa decisão é complexa.
3.2 Ética e metodologia de pesquisa
Também não é controverso que valores morais e éticos orientem a
formulação de metodologia das pesquisas que envolvam seres
sencientes. Atualmente, no mundo inteiro universidades contam com
comitês de ética que são responsáveis por avaliar se as pesquisas
realizadas nessas instituições atendem preceitos éticos quando
animais humanos ou não-humanos estão envolvidos. Mas nem sempre
foi assim, e a história da ciência tem um repertório não-negligenciável
de pesquisas que violaram a integridade dos participantes. Um dos
episódios mais chocantes é o caso Tuskegee. O projeto Tuskegee foi
um estudo longitudinal sobre o desenvolvimento da sífilis realizado
pelo Serviço de Saúde Pública dos Estados Unidos de 1932 a 1972.
Neste estudo, participaram 600 homens negros, destes, 399 com sífilis
e 201 sem a doença. Os homens com a doença não sabiam que tinham
sífilis e eles não foram avisados acerca do diagnóstico. Durante esse
período, surgiram tratamentos para a doença, mas os participantes
infectados não foram avisados e também não receberam o tratamento.
Para piorar a situação, as instituições de saúde dos EUA receberam
uma lista com os nomes dos participantes para evitar que dessem
tratamento caso algum deles procurasse atendimento (Goldim, 1999).
Apenas em 1997, quando havia só oito sobreviventes do experimento, o
governo americano pediu desculpas às pessoas que foram enganadas.
O caso chama ainda mais a atenção por ter ocorrido em um país
democrático e por ter envolvido pesquisadores e profissionais da área
de saúde de diversas instituições. No Brasil recente, durante a
pandemia de Covid-19, assistimos ao escândalo da Prevent Senior,
259
ainda em apuração (Jucá, 2021). Supostamente, a operadora de saúde
Prevent Senior pressionou os seus médicos a receitarem a seus
pacientes o kit-covid, a essa altura já comprovado ineficaz. A acusação
mais grave é a de que a administradora experimentou também
medicamentos em pacientes sem a devida autorização. Esses são
casos de violação drástica da dignidade humana na pesquisa científica
e na aplicação de conhecimento científico, e que evidenciam a
importância dos comitês de ética em qualquer instituição que realize
pesquisas envolvendo seres sencientes. Robert Merton (2013, p. 177)
salienta também que os maus usos do conhecimento científico é uma
das principais causas de movimentos anticiência na sociedade. Essa é
uma razão extra para nos preocuparmos com a ética na formulação de
metodologias de pesquisa.
Há outras situações menos controvertidas e que ainda assim
geram questões difíceis sobre a relação entre ética e metodologia de
pesquisa. Por exemplo, é comum que experimentos em psicologia
envolvam algum tipo de ilusão ou engano. Para que os experimentos
funcionem, é importante que os participantes não saibam exatamente
o que está sendo investigado, pois isso pode afetar o seu
comportamento e comprometer a pesquisa. Em alguns casos, os
participantes são informados que o experimento tem um objetivo que,
na verdade, ele não possui. Por exemplo, no famoso experimento de
Milgram, os participantes foram informados que eles estavam
colaborando em um experimento sobre a memória e o papel da
punição na aprendizagem. Na verdade, o experimento era sobre a
tendência das pessoas a obedecerem à autoridade. No experimento,
os participantes são convidados a aplicar choques cada vez mais
elevados a uma pessoa, que se encontra em outra sala, quando ela erra
um exercício de memorização. O participante não sabe, mas o choque
não é real, embora a pessoa na outra sala finja recebê-lo. Quando o
participante hesita dar o choque, pois ouve e vê a pessoa na outra sala
gemendo de dor, o cientista insiste que a punição é importante para o
experimento e que a saúde e a vida da pessoa não estão em risco. Uma
parcela significativa dos participantes prossegue aplicando os
choques. Se fosse dito desde o início que o objetivo da pesquisa era
avaliar a obediência à autoridade, é muito provável que os
participantes não prosseguiriam aplicando os choques. Ao mesmo
tempo, argumenta-se que o uso de engano em experimentos é uma
260
forma de violação da autonomia dos participantes e o seu interesse na
verdade (Bortolotti, 2010, p. 273). Uma maneira de amenizar essa
consequência, já amplamente utilizada, consiste em abrir o jogo para
os participantes logo após a realização do experimento. Depois que
e s t ã o c o m p l e t a m e n t e e s c l a re c i d o s s o b re o s o b j e t i vo s e
procedimentos, a anuência de participação é novamente solicitada. Há
outros fatores que certamente devem ser considerados também.
Alguns experimentos psicológicos podem deixar traumas ou sequelas
psicológicas nos participantes. Alega-se que esse seria o caso, por
exemplo, do experimento de Milgram, que colocou os participantes em
uma situação angustiante ao solicitá-los a prosseguir dando choques
em pessoas que aparentemente estavam agonizando de dor
(Bortolotti, 2010, p. 280). Se um experimento deixa ou tem elevadas
chances de deixar sequelas psicológicas nos participantes, então é
uma boa razão para evitar realizar o experimento. Espera-se também
que o resultado de um experimento que envolva engano ou ilusão seja
conhecimento inédito e dificilmente obtido por vias que não envolvam
alguma forma de ilusão. Trata-se de uma demanda razoável diante da
violação, ainda que parcial e momentânea, da autonomia dos
participantes.
São muitas as questões éticas que podem surgir em relação às
metodologias de pesquisa, já que os participantes, humanos e nãohumanos, podem ser afetados de diferentes maneiras pelos
experimentos em que participam. Cabe, portanto, aos comitês de ética
não só avaliar previamente as metodologias de pesquisa, mas também
acompanhar a execução dos experimentos que ofereçam um maior
risco à integridade dos participantes.
4. Argumentos contra o ideal de ciência como livre de valores
Nesta seção, apresento e discuto dois argumentos célebres contra o
ideal de ciência como livre de valores, o argumento da lacuna
explicativa, de Helen Longino, e o argumento do risco indutivo, de
Heather Douglas. Ambas as filósofas sustentam que valores nãocognitivos, isto é, valores sociais e morais, são imprescindíveis mesmo
nas etapas internas da atividade científica.
261
4.1 O argumento da lacuna explicativa
O argumento da lacuna explicativa apoia-se em vários resultados da
investigação filosófica sobre a relação entre experiência e teoria. Um
desses resultados, já mencionado, foi o fracasso das teorias sintáticas
da confirmação. Por mais ampla que seja a experimentação e a
observação acumuladas, elas sempre serão compatíveis, em princípio,
com mais de uma teoria. Essa situação pode ser amenizada, como foi
sugerido, pelo apelo a valores cognitivos, os quais podem restringir
substantivamente o leque de teorias concorrentes que precisam ser
consideradas. Contudo, não há nenhuma garantia de que ainda assim,
diante da evidência disponível, não haverá mais de uma teoria ou
hipótese científica igualmente bem avaliada pelos valores cognitivos. A
escolha de uma teoria em detrimento de outra, nesta situação, seria
arbitrária. Mas esta não é a maior dificuldade no entorno da relação
entre evidência e teoria. Helen Longino argumenta que se um fato
observado é tomado como evidência para uma hipótese h depende de
suposições de fundo que relacionam evidências e hipóteses. Por
exemplo, o fato em si mesmo de que há uma alternância constante
entre dia e noite não é mais evidência para o geocentrismo do que
para o heliocentrismo. Na verdade, à luz de suposições de fundo do
geocentrismo, esse fato indica que o Sol gira em torno da Terra, ao
passo que, à luz de suposições de fundo do heliocentrismo, o mesmo
fato indica que a Terra gira em torno de si mesma (Longino, 1990, p.
45). Para tomar um exemplo mais contemporâneo, o desenvolvimento
das capacidades cognitivas, do comportamento cooperativo e do uso
de ferramentas ao longo da nossa história evolutiva em si mesmo não
indica, como sugerido no século passado, que as atividades de caça
do homem tiveram um papel crucial na evolução humana, pois o
mesmo desenvolvimento, dependendo das suposições de fundo, pode
indicar que as atividades de coleta da mulher tiveram um papel crucial
na evolução humana (Elliott, 2022, p. 20). Assim, dados coletados de
experimentos e observação em si mesmos não indicam uma hipótese
262
mais do que qualquer outra. O que serve de evidência para o quê
depende sempre de suposições de fundo (Longino, 1990, p. 58).5
Para Helen Longino, a preferência pela hipótese que enfatiza as
atividades de caça do homem mascara valores androcêntricos da
arqueologia da época. Androcentrismo refere-se à percepção da vida
social a partir de uma visão masculina que ignora ou tem dificuldade
de notar corretamente as atividades das mulheres. Distingue-se do
sexismo, pois não pressupõe, como faz este último, que as mulheres
são de alguma maneira inferiores (Longino, 1990, p. 129). Pedras
lascadas são vistas como evidência inequívoca de homens caçadores
apenas numa perspectiva que postula o comportamento masculino
como central para a evolução da espécie. As mesmas pedras lascadas
poderiam ser evidência para o comportamento de mulheres na coleta
e preparação de alimentos comestíveis. Pior, a indisposição a atribuir
outras atividades que a caça ao homem possivelmente reflete também
a concepção aristocrática do início do século passado acerca da
atividade da caça como exibindo valores de coragem e nobreza
(Longino, 1990, p. 130). Assim, valores atuam no raciocínio científico ao
moldarem suposições de fundo que conectam evidência a hipóteses.
O contraste entre suposições de fundo que privilegiam atividades
masculinas e suposições que privilegiam atividades femininas e os
consequentes vieses que isso parece implicar na pesquisa científica
poderiam ser vistos como uma razão contra a presença de valores nãocognitivos na aceitação e rejeição de hipóteses. No entanto, Helen
Longino afasta essa possibilidade alegando que ela não é realista. Ao
negar a participação de valores não-cognitivos, corremos o risco de
que eles atuem inconscientemente do mesmo jeito (Longino, 1990, p.
191). A extensa discussão de Longino sobre a presença de valores nãocognitivos não só na arqueologia, mas também em estudos hormonais
da neurociência e estudos sobre violência na psicologia
O argumento da Helen Longino pode ser aproximado da crítica de Sellars ao mito do
dado. Segundo Sellars, a ideia de que a experiência sensorial serve de justificação ou
evidência para alguma crença é um mito, pois, isoladamente, ela não tem nenhum
conteúdo proposicional e, portanto, não pode cumprir o papel de razão. Só o que tem
conteúdo proposicional pode justificar uma crença. A não ser, portanto, que tenhamos,
associadas às experiências, crenças de fundo que relacionem certas experiências a
certas crenças, as experiências elas mesmas não têm qualquer papel epistêmico de
justificação (Sellars, 2008). Esse foi um dos resultados mais devastadores da reflexão
filosófica para o empirismo tradicional no século passado.
5
263
comportamental ilustram isso muito bem. A saída mais realista, na
verdade, seria reconhecer a presença dos valores não-cognitivos e
adotar uma atitude mais ativa em relação a eles. A explicitação dos
valores que servem de base para suposições de fundo acerca do que é
evidência para o quê permite a sua discussão e avaliação pelos pares
da disciplina. Ela obriga os cientistas a serem responsáveis pelos
valores não-cognitivos que eles trazem para o seu paradigma de
pesquisa. Além disso, devemos pensar a objetividade não em termos
de representação fidedigna de fatos, mas em termos de um
procedimento de discussão e crítica pública em que os participantes
têm igual autoridade, são responsivos à crítica e reconhecem certos
padrões de crítica como legítimos para contestar métodos,
experimentos e suposições da prática científica (Longino, 1990, p. 76).
O possível viés na pesquisa devido à presença de valores nãocognitivos pode ser mitigado por essa estratégia e pela adoção de
equipes de pesquisa heterogêneas no que diz respeito à classe, gênero
e etnia. Assim, os valores acordados em um programa de pesquisa
tenderão a ser mais representativos. Por fim, a sugestão de ignorar os
valores não-cognitivos pode também não ser factível porque, em
muitos casos, sem eles, não se chega às suposições de fundo
necessárias para conectar as evidências às teorias. São tantas
suposições possíveis que valores não-cognitivos são necessários para
escolher entre elas. As demandas práticas e sociais que recaem sobre
a ciência, que precisa então dar respostas mais imediatas, impedem
que se espere indefinidamente por mais evidência para que valores
não-cognitivos não sejam utilizados (Elliott, 2022, p. 21).
4.2 O argumento do risco indutivo
O argumento da lacuna explicativa sustenta que valores não-cognitivos
são cruciais para selecionar suposições que determinam o que é
evidência para o quê. O argumento do risco indutivo sustenta que
valores não-cognitivos são fundamentais também para determinar
quando a evidência é suficiente para aceitar ou rejeitar uma hipótese
científica.
Cientistas fazem experimentos para testar as suas hipóteses.
Após os experimentos e a coleta de evidência, eles precisam decidir se
aceitam ou rejeitam a hipótese. Neste momento, quatro coisas podem
264
acontecer: (i) o cientista aceita a hipótese e ela é verdadeira; (ii) o
cientista aceita a hipótese, mas ela é falsa; (iii) o cientista rejeita a
hipótese e ela é falsa e (iv) o cientista rejeita a hipótese, mas ela é falsa.
As situações (i) e (iii) representam o objetivo do cientista, aceitar
apenas as hipóteses verdadeiras e rejeitar apenas as hipóteses falsas.
As situações (ii) e (iv) representam possíveis erros do cientista, aceitar
uma hipótese falsa e rejeitar uma hipótese verdadeira. O cientista quer
e deve evitar esses erros.
A dificuldade não é negligenciável, pois o cientista precisa lidar
com a incerteza. Os experimentos e a evidência coletada são sempre
limitados, circunscritos, por exemplo, a uma população finita que foi
observada, enquanto a hipótese é geral e faz uma afirmação que
extrapola a população observada. Quando se decide, portanto, aceitar
ou rejeitar uma hipótese com base nesta evidência, há o risco de errar.
Isso é o que se chama de “risco indutivo”, expressão forjada por
Hempel (1965, p. 92) em texto seminal sobre o tema. Essa dificuldade é
incontornável, já que normalmente a ciência lida com hipóteses que
fazem afirmações sobre um universo indefinido de coisas. Não há
como limitar a ciência apenas ao que foi observado. Se ela assim fosse
limitada, seria inútil. Não nos ajudaria a fazer explicações ou previsões
sobre o que não foi observado.
Como evitar, então, os erros (ii) e (iv)? Esses erros serão evitados
se tivermos critérios e regras que determinem quando a evidência,
mesmo limitada, é suficiente para aceitar ou rejeitar uma hipótese
científica. Hempel sugeriu que esses critérios deveriam ser baseados
apenas em valores cognitivos, pois devem ser valores que nos levem à
“obtenção de um conjunto de informação sobre o mundo
crescentemente confiável, amplo e teoricamente sistematizado”
(Hempel, 1965, p. 93). Sua ideia é que esses critérios avaliem os riscos
de errar envolvidos em (ii) e (iv). Como, no seu entendimento,
aplicações práticas não são contempladas quando o cientista avalia se
uma hipótese deve ser aceita ou rejeitada – apenas a sua verdade ou
falsidade importam e devem ser consideradas –, então valores nãocognitivos não devem participar dessa decisão. No entanto, esta
estratégia esbarra em uma limitação semelhante àquela que se impõe
à seleção de suposições de fundo para determinar o que é evidência
para o quê. Valores cognitivos não são suficientes para determinar se a
265
evidência é suficiente ou não para a aceitação ou rejeição de uma
hipótese. Se o risco de errar em (ii) e (iv) é entendido apenas em
termos de falsos positivos e falsos negativos, desconsiderando-se as
consequências práticas de se aceitar uma hipótese falsa e rejeitar uma
hipótese verdadeira, então valores cognitivos, na medida em que não
eliminam a incerteza, não vão eliminar a possibilidade desses erros. Por
esse motivo, alguns filósofos da ciência, como Rudner na década de
1960 e Heather Douglas nas últimas décadas, sustentam que cientistas
avaliem o risco de aceitar uma hipótese falsa e rejeitar uma hipótese
verdadeira com base em valores sociais e morais. Eles devem extrair as
consequências práticas de se aceitar uma hipótese falsa e as de
rejeitar uma hipótese verdadeira e avaliar essas consequências com
base nos valores não-cognitivos. À luz dessas avaliações, eles podem
determinar se a evidência de que dispõem minimiza esses riscos.
Como coloca Rudner (1953, p. 3), “o risco que alguém está disposto a
tolerar ao estar errado na aceitação ou rejeição de uma hipótese
dependerá de quão sérias são, no sentido tipicamente ético, as
consequências de se cometer esse erro”.
Heather Douglas (2000) tem sido uma grande defensora dessa
ideia nas últimas décadas. Vejamos um exemplo, discutido por ela
extensivamente. Douglas usa o caso da dioxina, que é uma substância
resultante de muitos processos industriais e eliminada na atmosfera. A
pergunta científica é se essa substância é um poluente, isto é, se ela é
tóxica. Mais particularmente, a partir de qual concentração ela é tóxica
ou prejudicial para organismos vivos como nós. A pergunta pode ser
ainda mais específica ao se concentrar apenas em um malefício, por
exemplo, o câncer. Assim, cientistas elaboram experimentos para
testar a hipótese de se dioxina causa câncer. Para tanto, fazem-se
experimentos com camundongos. Diferentes grupos de camundongos
são expostos a diferentes concentrações da dioxina por um certo
intervalo de tempo, normalmente de 1 a 2 anos. Ao mesmo tempo,
haverá um grupo controle de camundongos, que não é exposto à
dioxina. Após os experimentos, compara-se a taxa de incidência de
câncer nos diferentes grupos com a taxa de incidência de câncer no
grupo controle. É importante observar que, independentemente da
dioxina, alguns camundongos no grupo controle podem desenvolver
câncer por outras razões.
266
A pergunta que se pode levantar é: a partir de qual diferença
entre a taxa de incidência de câncer no grupo controle e a taxa de
incidência de câncer em algum dos outros grupos estaremos
autorizados a dizer que a respectiva concentração de dioxina é a
responsável por essa diferença e, portanto, causadora de câncer? A
literatura diz que a diferença tem que ser estatisticamente relevante.
Mas o problema é justamente esse. Como determinar quando ela é
relevante? Por um lado, uma diferença de 1% seria provavelmente
muito pequena. Inclusive, é uma diferença que se pode esperar entre
um grupo controle e o outro. Isto é, dois grupos controles não vão
apresentar exatamente a mesma taxa de incidência de câncer e essa
diferença pode muito bem estar em torno de 1% ou até mais. Por outro
lado, uma diferença de 20% talvez seja muito grande. Qualquer escolha
entre um extremo e outro, à luz dos experimentos apenas, parece
arbitrária.
É neste momento que Heather Douglas sugere que os cientistas
têm de olhar para as consequências práticas de se aceitar cada uma
dessas possibilidades e avaliar essas consequências com base em
valores sociais e morais. Por um lado, se o cientista opta por uma
diferença muito pequena, isso significa que uma baixa concentração
de dioxina é tomada como causadora de câncer. Qualquer
concentração acima também será, portanto, tomada como causadora
de câncer. Isso significa que podemos vir a ter muitos falsos positivos e
poucos falsos negativos. Se a hipótese de que uma concentração
muito baixa de dioxina causa câncer é tomada como verdadeira, uma
consequência prática é que deverá haver um maior controle sobre os
processos industriais. As atividades econômicas que envolvem a
dioxina devem ser duramente regulamentadas, o que aumentará o
custo dessas atividades. Ao mesmo tempo, preserva-se a vida das
pessoas. As chances de alguém desenvolver câncer devido à dioxina
serão pequenas. Por outro lado, se o cientista opta por uma diferença
muito grande, isso significa que somente uma alta concentração de
dioxina é tomada como causadora de câncer. Qualquer concentração
abaixo será rejeitada como causadora de câncer. Isso significa que
podemos ter muitos falsos negativos e poucos falsos positivos. Se essa
hipótese é tomada como verdadeira, isso significa que haverá um
controle menor sobre os processos industriais. Ao mesmo tempo,
coloca-se a população numa situação maior de risco, já que, havendo
267
mais falsos negativos, as chances de que a população esteja
submetida a uma concentração de dioxina que, no fim das contas,
causa câncer são grandes. Assim, conclui Douglas, o cientista precisa
avaliar as consequências práticas de aceitar ou rejeitar uma hipótese
com base em valores sociais e morais para determinar qual é o limiar
de significância estatística adequado ao caso. Em outras palavras,
valores não-cognitivos são cruciais para determinar quando a
evidência é suficiente para aceitar ou rejeitar uma hipótese.
É importante salientar que, na concepção de Douglas, valores
não-cognitivos não são razões diretas para crer em hipóteses
científicas, isto é, valores não-cognitivos não indicam a verdade ou
falsidade de hipóteses e teorias; eles não são evidência adicional.
Valores não-cognitivos têm o papel de “pesar a importância da
incerteza acerca de uma afirmação, ajudando a decidir o que deve
contar como evidência suficiente para essa afirmação” (Douglas, 2009,
p. 96). Douglas sustenta que o papel indireto de valores morais e
sociais nas atividades científicas é legítimo, mas o uso direto, como
razões para crer, não é.
O argumento do risco indutivo pode ser aplicado de modo
interessante ao debate atual em torno do aquecimento global e da
hipótese antropogênica de que a principal causa do aquecimento são
as atividades humanas. Embora haja consenso robusto, acima de 90%,
na comunidade de climatólogos de que a hipótese antropogênica está
correta (Cook et al., 2013, 2016; Powell, 2016), alguém pode perguntar
se esse consenso está correto. Normalmente, as dúvidas levantadas
contra a correção do consenso vêm de partes interessadas que atuam
fora da comunidade científica (Oreskes, 2018), possivelmente com o
propósito de minar a percepção pública acerca desse consenso. De
qualquer modo, em vez de buscar mostrar que essas possibilidades
contrárias são implausíveis, pode ser mais eficaz enfatizar que a
ciência não produz certezas absolutas – embora seja autocorretiva e
esteja sempre atenta para diagnosticar e corrigir os seus erros – e que
devemos olhar para as consequências práticas da aceitação da
hipótese antropogênica se quisermos ter uma percepção mais clara de
se a evidência acumulada pelos climatólogos é suficiente ou não para
a sua aceitação. As consequências de se aceitar a hipótese
antropogênica são vastas, o custo econômico e social em termos de
268
mudanças de hábitos para minorar o efeito das atividades humanas
sobre o clima não são negligenciáveis. Contudo, as consequências de
se rejeitar a hipótese antropogênica são ainda piores, não só pelos
transtornos e catástrofes climáticos, mas sobretudo pelo risco
crescente de colapso do ecossistema global, inviabilizando a própria
vida humana. À luz dessas considerações, Lloyd et al. (2021, p. 2)
sustentam que evidência muito mais parca que a atualmente
disponível já seria suficiente para aceitar a hipótese antropogênica.
Eles tomam como parâmetro o padrão de evidência requerido em
situações de litígio legal. Por exemplo, para a atribuição de
responsabilidade em casos de imperícia médica, nos EUA, o padrão de
evidência não precisa ser mais forte do que o necessário para afirmar
que a imperícia é mais provável do que o contrário. A razão para isso
são os riscos e prejuízos à pessoa afetada pela imperícia. Lloyd et al.
(2021, p. 03) sugerem que a comunidade de climatólogos deveria se
aproximar desse padrão de evidência na aceitação e rejeição de
afirmações sobre o aquecimento global.
5. Defesas do ideal da ciência como livre de valores
Há muitas respostas aos argumentos de Longino e Douglas. Na
sequência, aponto algumas mais salientes e comuns e, em seguida,
discuto uma releitura recente por Liam Bright dos argumentos
independentes de Du Bois em favor do ideal da ciência como livre de
valores.
Uma maneira de restringir o impacto do argumento do risco
indutivo seria pela distinção entre ciência pura ou básica e ciência
aplicada. As conclusões do argumento valeriam apenas para a ciência
aplicada, mas não para a ciência pura. Quando aplicamos o
conhecimento científico, ele terá efeitos diretos e indiretos, os quais
precisam ser considerados e ponderados, especialmente quando
comunidades ou populações inteiras são afetadas por essa aplicação.
Mas a ciência básica, restrita ao laboratório e aos centros de pesquisa,
não tem de se preocupar com esses efeitos. Assim, o ideal de ciência
como livre de valores poderia manter-se válido no âmbito mais restrito
da ciência básica. A dificuldade desta resposta é que a distinção entre
ciência básica e aplicada é ela mesma problemática, especialmente se
pensada em termos dos seus efeitos. Em 1945, quando se realizou o
269
primeiro teste com uma bomba nuclear em um deserto do Novo
México, os cientistas envolvidos consideraram a possibilidade de que a
explosão da bomba pudesse gerar uma reação em cadeia que
consumiria a própria atmosfera, tornando a vida na Terra inviável
(Douglas, 2009, p. 77). Essa possibilidade foi estudada e descartada;
em verdade, concluiu-se que seria uma impossibilidade científica. Em
princípio, esse experimento seria ainda parte da ciência básica. Outro
caso ainda menos disputado seria o uso de aceleradores de partículas
na investigação sobre os componentes mais elementares da matéria.
Não parece haver dúvida de que se trata de ciência básica. Ainda
assim, a possibilidade de que um acelerador possa explodir, produzir
efeitos danosos à saúde dos físicos experimentais, ou mesmo gerar um
buraco negro durante a sua operação (Cern, 2011) precisa ser
considerada e ponderada. Ao fazê-o, valores não-cognitivos terão de
entrar em cena. Além disso, na ausência de qualquer consequência
prática, pode-se sustentar que a questão de aceitar ou rejeitar uma
teoria científica nem se coloca. Com base em que preferiríamos aceitar
uma teoria que tem 95% de probabilidade de ser verdadeira em vez de
85% ou 90%?
Uma segunda distinção evocada para restringir o argumento do
risco indutivo é a distinção entre crença e aceitação, ou, nos termos de
Lacey, entre assegurar (holding) e endossar (endorsing). Com base
nessa distinção, Claudio Reis argumenta que a tese da imparcialidade
de Lacey é compatível com o argumento do risco indutivo. Crer ou
assegurar que p é “fazer o juízo de que p pertence ao conhecimento
científico estabelecido”, enquanto aceitar ou endossar p “é fazer o juízo
de que a evidência que sustenta p é suficientemente forte para que a
legitimidade das ações informadas por ela não seja desafiada com
base do fato de que p tem apoio empírico insuficiente” (Cern, 2021, p.
210). A imparcialidade seria aplicada apenas à atitude de crer ou
assegurar, ao passo que o argumento do risco indutivo abarcaria
apenas a atitude de aceitar ou endossar. A dificuldade é que esta
distinção entre crer/assegurar e aceitar/endossar precisa ser
estabelecida. Se se pretende que essa distinção se baseie no contraste
entre razões epistêmicas e razões práticas, como se a aceitação ou o
endosso fosse movido apenas por razões práticas, então a distinção
que se obtém não faz justiça ao argumento do risco indutivo. Heather
Douglas concorda que valores não-cognitivos não são razões para
270
aceitar ou rejeitar hipóteses científicas. O seu argumento é que eles
operam indiretamente para determinar se a evidência disponível é
suficiente ou não para aceitar uma determinada teoria. O que precisa
ser estabelecido é que a evidência suficiente para crer, caso a crença
seja algo distinto da aceitação, não é afetada por valores nãocognitivos. Se Cliord (2010) estiver correto, isso não pode ser o caso,
pois não há como desconectar severamente a crença de ações e, por
conseguinte, os potenciais efeitos da crença repercutem sobre a
evidência suficiente para ela. Ao julgar se uma embarcação está segura
para a navegação, faz toda a diferença se ela é uma embarcação
tripulada ou uma embarcação de teste completamente automatizada
para o transporte apenas de produtos. A evidência que o armador
precisa ter para crer na segurança da embarcação não é a mesma nos
dois casos. Por fim, se a crença fosse desconectada da ação e do valor
dos seus efeitos, é difícil ver com base em que determinaríamos a
suficiência da evidência para crer.
Salientei, na seção 4.1, que, devido à importância da ciência em
sociedades democráticas para a promoção do bem-estar social, o seu
objetivo não deve ser visto mais apenas como o de descobrir como a
realidade é, mas o de descobrir verdades que sejam interessantes para
a comunidade a que ela serve. Essa contingência histórica tem,
portanto, impacto sobre como devemos pensar o ideal de ciência, o
que vem sendo reiteradamente sublinhado por Philip Kitcher (2001,
2011). Nesse contexto, o resgate das ideias de Du Bois por Liam Bright
(2018) são muito pertinentes, já que Du Bois defende o ideal de ciência
como livre de valores justamente por ela ter esse papel preponderante
nas sociedades democráticas.
A primeira consideração a partir de Du Bois envolve um reparo no
que foi dito acima sobre o objetivo da ciência. Segundo Liam Bright, a
concepção de Du Bois é mais nuançada. Ele distingue o objetivo
imediato ou direto da ciência do objetivo mediato ou indireto da
ciência. O primeiro é a busca pura e simples da verdade, enquanto o
último é a reforma social e a melhoria das nossas condições de vida, e,
por conseguinte, a busca por “informação que pode ser frutiferamente
usada para guiar políticas públicas em estados democráticos” (Bright,
2018, p. 2.231). O primeiro é o que motiva e deve motivar o cientista
qua cientista, enquanto o segundo é o que motiva o político ou o
271
agente público responsável por políticas públicas. O segundo objetivo
afeta a ciência de maneira substantiva, pois é ele que orienta como a
instituição da ciência deve ser estruturada e organizada. É com base
inclusive no objetivo mediato que Du Bois sustenta que o objetivo
imediato da ciência deve ser a busca desinteressada pela verdade.
Para que o objetivo mediato seja atingido, em sociedades
democráticas, é crucial que a população confie na ciência. Sem esta
confiança, não haverá cooperação da população na implementação
das políticas públicas, prejudicando, portanto, o seu alcance e eficácia.
Por exemplo, uma população desconfiada da segurança das vacinas
não participará massivamente das campanhas de vacinação, mesmo
em países que adotem a obrigatoriedade da vacinação para certos
segmentos da população. Du Bois também assume que a população
civil tende a desconfiar de cientistas se eles são vistos como engajados
com uma agenda política em particular. Segundo Liam Bright, essa é
uma premissa empírica para a qual Du Bois não oferece apoio, embora
seja uma suposição razoável (2018, p. 2233). Concedida essa premissa,
chegamos à conclusão de que os cientistas devem buscar a verdade
imparcialmente para que a ciência possa realizar o seu objetivo
mediato.
O caso do biólogo molecular Gilles-Eric Séralini ajuda a ilustrar a
consideração sobre a importância da imparcialidade do cientista. Ele
fez um estudo por dois anos com ratos alimentados com milho
g e n e t i c a m e n t e m o d i f i c a d o. A c o n c l u s ã o d e s t e e s t u d o –
posteriormente retratado – foi a de que esses ratos tiveram uma
propensão maior a adquirir câncer (Séralini, 2012). Contudo, sabe-se
que ele é também um ativista contra alimentos geneticamente
modificados. Além disso, críticos mostraram que a sua amostra de
ratos era muito pequena e que a cepa de rato usado era muito
propensa a adquirir câncer. Seus resultados seriam assim pouco
confiáveis (Carrier, 2022, p. 06). Dada a sua agenda interessada, pode
ser razoável supor que o público tenderá a desconfiar das suas
conclusões e que isso pode ter impacto sobre qualquer medida
pública de controle ou regulamentação de alimentos geneticamente
modificados. De modo semelhante, como já comentamos, o interesse
pelo lucro da indústria farmacêutica também pode contaminar a
confiança que a população deposita nos resultados das suas
pesquisas. Nem todo movimento antivacina é anticiência. Por fim, a
272
própria ciência, ao se deixar levar pela urgência de publicar e se
transformar em uma ciência industrial, atravessada por práticas e
interesses empresariais, fomenta uma atmosfera em que “menos
motivos temos para esperar que os resultados científicos sejam
neutros” (Cupani, 2007, p. 128).
Contudo, se aceitarmos que o cientista qua cientista deve buscar
a verdade de modo imparcial e não trazer valores não-cognitivos para a
pesquisa, como ele poderá determinar se a evidência disponível é
suficiente para aceitar ou rejeitar uma hipótese que ele está
investigando? Uma solução que, segundo Liam Bright, teria sido
adotada por Du Bois (2018, p. 2245) e foi explicitamente defendida por
Richard Jerey (1956) em sua resposta a Rudner é a de que o cientista
qua cientista não tem que aceitar ou rejeitar hipóteses, mas limitar-se a
enunciar a sua probabilidade de ser verdadeira. Assim, temos uma
divisão das tarefas mais adequadas ao ideal da ciência como livre de
valores. As autoridades públicas que farão uso do conhecimento
científico é que devem decidir se aceitam ou não uma determinada
hipótese científica. Para tanto, elas considerarão as consequências
práticas da aceitação ou rejeição da hipótese-alvo e avaliarão essas
consequências com base em valores sociais e morais. Os cientistas
apenas enunciam a evidência, a teoria e o quanto aquela evidência
torna a teoria provável, mas não se comprometem em dizer que a
evidência disponível é suficiente para aceitar ou rejeitar a teoria. Assim,
não precisam fazer uso de valores não-cognitivos. Essa estratégia
contorna o argumento do risco indutivo. Ela é reforçada pela
consideração de que cientistas não são eleitos, ao passo que agentes
públicos, se não são eleitos, são pelo menos membros de instituições
que estão sob a responsabilidade do governo e, portanto, gozam de
representatividade. Se temos no horizonte o objetivo mediato da
ciência em uma sociedade democrática, então seria muito
antidemocrático que os cientistas trouxessem os seus valores morais e
sociais para a aceitação ou rejeição de teorias científicas.
Embora esses argumentos em favor do ideal da ciência como
livre de valores sejam bastante razoáveis, eles também enfrentam
dificuldades. Algumas são teóricas, outras são de ordem prática.
Rudner (1953, p. 4) já havia antecipado a proposta de Jerey e sua
resposta é que o juízo de que a hipótese H tem a probabilidade X de
273
ser verdadeira é equivalente à aceitação da hipótese de segunda
ordem de que H tem a probabilidade X. Assim, o juízo do cientista não
estaria livre de valores não-cognitivos. A dificuldade de ordem prática
é que não é tão simples operacionalizar a separação entre o papel de
avaliação de risco, que caberia ao cientista, e o gerenciamento de
risco, que caberia ao agente público (Douglas, 2009, p. 140). Por um
lado, o agente público seria sobrecarregado de informações que ele
não sabe como manejar. Ele quer saber qual teoria deve considerar
sobre um determinado assunto, não que há uma dezena de hipóteses e
teorias sobre esse assunto e as suas respectivas probabilidades. Além
disso, o agente público não é capacitado para extrair as consequências
de uma hipótese científica. Quem sabe fazê-lo é o cientista. Por outro
lado, o cientista, ao explorar as consequências de uma teoria científica
para avaliar o quão apoiada ela é pela evidência, precisa ser orientado
sobre a área específica de interesse – e.g., para a formulação de uma
política pública – em relação a qual ele extrairá as consequências da
teoria-alvo. Quem pode indicá-la é o agente público. Assim, ao que
tudo indica, cientistas e agentes públicos precisam trabalhar juntos
para que tanto a avaliação de risco quanto o gerenciamento de risco
funcionem adequadamente. Em resposta à consideração de que o
cientista não é eleito e, portanto, não deveria trazer os seus valores
sociais e morais para a pesquisa, a sugestão é que autoridade pública
indique ao cientista quais valores não-cognitivos ele deve considerar.
Isso se aplica às situações mais concretas em que cientistas estão
trabalhando conjuntamente com agentes públicos para a formulação
de uma política pública. Fora desse contexto, cientistas ainda assim
podem aceitar ou rejeitar hipóteses científicas, desde que se apoiem
em valores não-cognitivos representativos da sociedade. Mais uma vez,
a proposta de ciência bem-ordenada é oportuna. Caberia a entes
representativos da sociedade civil fornecer o conjunto de valores nãocognitivos que auxiliariam os cientistas a avaliar a aceitação e rejeição
de hipóteses científicas. Essa proposta tem a vantagem de tornar
públicos e explícitos os valores não-cognitivos que estarão presentes
mesmo nas atividades propriamente científicas, permitindo a sua
contínua discussão e correção. Essa talvez seja a melhor estratégia
para que a ciência cumpra o seu fim mediato sem abrir mão dos
valores não-cognitivos na atividade de aceitação e rejeição de
274
hipóteses e, ao mesmo tempo, sem ser politizada, minimizando as
chances de perder a confiança perante o público.
6. Ciência como uma atividade social adaptativa e situada
Apesar de ter oferecido respostas para alguns dos principais
questionamentos sobre a legitimidade de valores não-cognitivos na
aceitação e rejeição de hipóteses e teorias científicas, penso que a
resistência de fundo à presença de valores na ciência pode ser
amenizada por uma reconcepção do conhecimento científico. Como
disse no início do capítulo, essa resistência em grande medida repousa
sobre a dicotomia entre fato e valor. Uma concepção de cognição que
já a entende como imbricada com valores nos permite entender a
presença de valores na ciência como um corolário. Por falta de espaço,
a concepção que tenho em mente será apenas esboçada nesta seção.
Espero, no entanto, que os contornos oferecidos sejam suficientes para
obter uma compreensão do seu alcance.
Entendo que temos conhecimento de algo, onde esse algo pode
ser um sapato, uma maçã, uma peça musical ou mesmo uma teoria, na
medida em que temos uma habilidade ou conjunto de habilidades para
resolver tarefas que envolvam esse algo (Carvalho, 2018b, p. 21-22).
Vou chamar essa concepção de concepção ecológica do
conhecimento, pois ela é inspirada na abordagem ecológica da
percepção,6 como ficará claro adiante. O conhecimento serve para
guiar a nossa ação e quanto mais complexa for a tarefa com a qual
estamos engajados, mais hábeis temos de ser em lidar com o que
estamos interagindo. Ampliamos o conhecimento acerca de X
melhorando ou ampliando as habilidades para lidar de modo bem
sucedido com X. Em outras palavras, o conhecimento é adaptativo.
Como X é primariamente conhecido em termos do que podemos fazer
com X, o conhecimento não é aperspectival. Pelo contrário, o
conhecimento que um agente tem de X é relativo às próprias
habilidades do agente. O conhecimento que eu tenho de um
automóvel difere muito do conhecimento que um mecânico tem do
mesmo automóvel. Eu sei dirigir o automóvel e realizar algumas
Ela também é inspirada no pragmatismo e na tese ryliana de que o saber-fazer
precede o saber-que (Ryle, 1945).
6
275
operaçõe s básicas de manutenção para pre ser var o seu
funcionamento ao longo do tempo. O mecânico sabe montar e
desmontar o automóvel, realizar diagnósticos, identificar peças
danificadas e consertá-las. O mesmo automóvel é conhecido por mim
e pelo mecânico de maneira diferente, já que cada um conhece e
compreende o automóvel em termos das suas próprias habilidades.
Como o que um agente conhece é conhecido em termos das suas
habilidades, o que é conhecido tem significado para o agente e não é,
portanto, avaliativamente neutro. Por fim, as habilidades que apoiam o
conhecimento são situadas, isto é, elas só são exercidas quando as
condições ambientais são favoráveis. Uma habilidade, que resulta de
um processo adaptativo, tem um ambiente específico como o seu
complemento. A habilidade de ficar de pé, por exemplo, envolve um
entorno em relação ao qual orientamos a postura e mantemos o
equilíbrio corporal (Carvalho, 2022a, p. 7-8). Com efeito, habilidades
“só podem ser descritas em termos de uma relação do organismo com
o seu ambiente” (Fuchs, 2018, p. 101). Consequentemente, o
conhecimento também é situado.
O que dissemos do conhecimento em geral ajusta-se muito bem
à abordagem ecológica da percepção, que é o tipo mais simples de
conhecimento (Gibson, 2015, p. 251). Segundo a abordagem ecológica,
a função da percepção é guiar a ação. O que percebemos são as
aordances dos objetos e eventos. Aordances são possibilidades de
ações. Elas são relações entre o organismo e o ambiente. Um degrau
que é percebido como escalável por mim em virtude das minhas
propriedades corporais e da minha habilidade de escalar não é visto
como escalável por uma criança de seis meses de idade. A superfície
da água não oferece suporte ou locomoção para seres terrestres como
nós, mas oferece suporte para mosquitos bem leves. Os organismos
percebem o mundo em termos do que eles podem fazer nesse mundo.
O que é percebido tem significado para o organismo justamente por
ser percebido em termos de possibilidades de ações que dizem
respeito a ele. Um alimento não é primariamente percebido como
tendo uma forma determinada, mas como sendo comestível. Ser ou
não um alimento não é uma propriedade intrínseca de um objeto, mas
relacional. O que é alimento para nós pode não ser para outra espécie
e vice-versa. Aordances rompem como a dicotomia entre objetivo e
subjetivo (Gibson, 2015, p. 121) e também com a dicotomia entre
276
factual e avaliativo. Um penhasco é percebido por seres terrestres
como oferecendo queda e dano, mas não por aves capazes de voar.
Um predador oferece defesa ou fuga. Aordances têm valência.
Estados afetivos participam da percepção, qualificando a relação do
organismo com o seu ambiente (Carvalho, 2022b, p. 40-47). Uma
colina é percebida como mais ou menos escalável conforme estejamos
mais ou menos descansados. Em um mesmo ato perceptivo, o
organismo nota a sua relação com o ambiente – e.g., propicia escalar –
e a qualidade dessa relação – e.g., posso escalar agora –, cognição e
valoração não se separam.7
A ciência é uma extensão da percepção. Assim como um cego
aprende a sentir o chão adiante com uma bengala, estendendo deste
modo a sua capacidade de percepção, também alargamos a nossa
capacidade de entender e lidar com a natureza pela incorporação de
uma teoria (Polanyi, 2009, p. 17). Aprendemos a fazer mais coisas com
um determinado tipo de objeto quando incorporamos uma teoria. Por
exemplo, ao incorporar a teoria atômica, aprendemos a manejar
elétrons de modo a dispará-los por um canhão de elétrons. Não há
como assimilar uma teoria sem assimilar os seus usos, efeitos e
aplicações. Enquanto o aprendiz de cientista faz apenas exercícios
simbólicos com a teoria, extraindo as suas consequências, pode-se
dizer que ele está conhecendo a teoria através das habilidades
inferenciais, mas ele ainda não está conhecendo o mundo através das
habilidades teóricas. Ele passará a entender o mundo através das
teorias e das suas habilidades teóricas quando começar a arranjar o
laboratório para testar a teoria e a relacioná-la a outros conhecimentos
e restrições para aplicá-la também fora do laboratório. Incorporar uma
teoria acerca de X envolve ampliar o que se pode fazer com X. Como
salientou Polanyi (2009, p. 17), “conhecimento verdadeiro reside na
nossa habilidade de usá-lo”. Embora eu tenha falado do cientista em
particular, é importante salientar que as habilidades em jogo quando
Na filosofia moral, a discussão em torno dos chamados “conceitos espessos” nos
convida a uma conclusão semelhante. Os predicados como “cruel”, “gentil”, “rude”,
“amoroso” e muitos outros são ao mesmo tempo descritivos e avaliativos (Putnam,
2008, p. 54). Segundo a leitura mais forte, a imbricação desses elementos
impossibilitaria separar o componente factual do avaliativo. Esse resultado é melhor
apreciado se compreendemos que os predicados mencionados apontam para
relações, no caso, relações de tratamento, que não são instanciadas sem uma
qualidade avaliativa específica.
7
277
falamos de conhecimento científico não são propriedades de cientistas
individuais, mas da comunidade científica, muita coordenação e ação
conjunta está envolvida na atividade científica. É a habilidade conjunta
da comunidade de lidar com o mundo que está por trás do
conhecimento científico. Assim, o conhecimento científico é uma
atividade social adaptativa e situada. O mundo ganha significado para
a comunidade científica à medida que ela amplia a sua capacidade de
lidar e interagir com o mundo, pois é em termos da sua habilidade
conjunta que o mundo é conhecido. Se tomamos o caso da dioxina, a
comunidade científica conhece cada vez mais a dioxina visto que é
capaz de lidar com ela de modo bem sucedido em diferentes tarefas e
contextos. Um desses contextos é o da liberação da substância na
atmosfera em regiões urbanas. Se, neste contexto, a toxicidade é um
dos seus efeitos, a comunidade científica precisa ser capaz de notá-la
e controlá-la. Não conseguirá fazê-lo sem apelar a valores sociais e
morais. A sensibilidade à toxicidade da dioxina é mais um caso em que
cognição e avaliação não se separam.
Na perspectiva ecológica do conhecimento, a sugestão de que o
cientista não aceite ou rejeite teorias ou a sugestão de que ele tenha
apenas a atitude de crer/assegurar uma teoria, onde crer e assegurar
são entendidos como completamente desconectados da ação,
simplesmente não faz sentido. Essas sugestões nos levam a pensar o
conhecimento como uma forma de contemplação pura e desengajada
de proposições. A perspectiva ecológica do conhecimento rejeita essa
imagem. Conhecimento tem a ver com a nossa habilidade de manter
contato próximo com o ambiente, contato que é ampliado pela
incorporação de teorias. Conhecer “é em si mesmo um modo de ação
prática” (Dewey, 1929, p. 107). Em outras palavras, conhecer é algo que
fazemos. O uso de uma teoria incorporada para a solução de
problemas sociais, como a formulação de uma política pública, não é
uma exceção ou um episódio de “mera aplicação” do conhecimento
científico. É antes um caso de ampliação do conhecimento científico
na medida em que ampliamos a nossa capacidade de interagir com o
entorno, incluindo o entorno social. Isso não significa que o cientista
está liberado para usar os seus valores sociais e morais na aceitação e
rejeição de teorias. O risco de politização da ciência e o efeito disso
sobre a confiança social na ciência não podem ser negligenciados. As
restrições mencionadas no fim da seção anterior prevalecem. Em
278
sociedades democráticas, ao lidar com problemas sociais, a
comunidade científica tem de apoiar-se em valores que sejam
representativos. A questão de como determinar quais valores morais e
sociais são representativos da sociedade civil está em aberto, mas não
há veto ou resistência a sua presença na concepção ecológica do
conhecimento. Se valores morais e sociais são cruciais para aceitar ou
rejeitar uma teoria científica para fins de ação e se o conhecimento
científico repousa sobre a habilidade conjunta de agir, então valores
morais e sociais são partes integrantes e não elimináveis do
conhecimento científico.8
Referências
AYER, A. J. Language, Truth and Logic. New York: Dover Publications, 1970.
BACEVIC, J. There’s no such thing as just ‘Following the science’ – coronavirus
advice is political. The Guardian: Opinion, 28 abr. 2020. Disponível em:
<https://www.theguardian.com/commentisfree/2020/apr/28/theres-no-suchthing-just-following-the-science-coronavirus-advice-political>.
BARKER, G.; KITCHER, P. Philosophy of science: a new introduction. New York:
Oxford University Press, 2014.
BORTOLOTTI, L. Etica. In: BORTOLOTTI, L. Introdução à filosofia da ciência.
Lisboa: Gravida, 2010. p. 248-294.
BRIGHT, L. K. Du Bois’ democratic defence of the value free ideal. Synthese, v.
195, n. 5, p. 2227-2245, 2018.
CARRIER, M. What does good science-based advice to politics look like?
Journal for General Philosophy of Science, v. 53, n. 1, p. 5-21, 2022.
CARVALHO, E. M. As humanidades e o uso adequado das ciências. 2020.
Disponível em: <https://estadodaarte.estadao.com.br/humanidades-cienciaseros/>.
CARVALHO, E. M. Goodman e o projeto de uma definição construtiva de
“indução válida”. Principia, v. 22, n. 3, p. 439-460, 2018a.
CARVALHO, E. M. Overcoming intellectualism about understanding and
knowledge: a unified approach. Episteme & Logos, v. 9, n. 1, p. 7-26, 2018b.
CARVALHO, E. M. An ecological approach to hinge propositions. Sképsis, v.
XIII, n. 25, p. 1-16, 2022a.
CARVALHO, E. M. Aective aordances: direct perception meets aectivity.
Perspectiva Filosófica, v. 49, n. 5, p. 29-51, 2022b.
Agradeço os comentários e sugestões do colega Cláudio Reis (UFBA) a uma primeira
versão do presente capítulo. Este texto contou com apoio da CAPES e financiamento
do CNPq, projeto n. 306795/2021-3.
8
279
CERN. Does CERN create black holes? Angels & Demons: the science behind
the story. Disponível em: <https://angelsanddemons.web.cern.ch/faq/blackhole.html>.
CLIFFORD, W. F. A ética da crença. In: MURCHO, D. (ed.). A ética da crença.
Lisboa: Editorial Bizâncio, 2010. p. 97-136.
COOK, J. et al. Quantifying the consensus on anthropogenic global warming in
the scientific literature. Environmental Research Letters, v. 8, n. 2, e024024, p.
01-07, 2013.
COOK, J. et al. Consensus on consensus: a synthesis of consensus estimates
on human-caused global warming. Environmental Research Letters, v. 11, n. 4,
e048002, p. 01-07, 2016.
CUPANI, A. A ciência e os valores humanos: repensando uma tese clássica.
Philósophos, v. 9, n. 2, p. 115-134, 2007.
DEWEY, J. The quest for certainty. New York: Minton, Balch & Company, 1929.
DOUGLAS, H. Science, policy and the value-free ideal. Pittsburgh: University of
Pittsburgh Press, 2009.
DOUGLAS, HEATHER. Inductive risk and values in science. Philosophy of
Science, v. 67, n. 4, p. 559-579, 2000.
ELLIOTT, K. C. Values in science. Cambridge: Cambridge University Press,
2022.
FUCHS, T. Ecology of the brain: the phenomenology and biology of the
embodied mind. Oxford: Oxford University Press, 2018.
GIBSON, J. J. The ecological approach to visual perception. New York:
Psychology Press, 2015.
GOLDIM, J. R. Caso Tuskegee. Disponível em: https://www.ufrgs.br/bioetica/
tueke2.htm. Acesso em: 18 jan. 2023.
GOODMAN, N. Fact, fiction, and forecast. Cambridge, MA: Harvard University
Press, 1983.
HEMPEL, C. G. Science and human values. In: HEMPEL, C. G. Aspects of
scientific explanation and other essays in the philosophy of science. New York:
The Free Press, 1965. p. 81-96.
JEFFREY, R. C. Valuation and acceptance of scientific hypothesis. Philosophy of
Science, v. 23, n. 3, p. 237-246, 1956.
JUCÁ, B. Escândalo da Prevent Senior ganha rosto com depoimentos de
médico e paciente à CPI da Pandemia. Disponível em: <https://
brasil.elpais.com/brasil/2021-10-07/escandalo-da-prevent-senior-ganha-rostocom-depoimento-de-medico-e-paciente-a-cpi-da-pandemia.html>.
KITCHER, P. Science, truth, and democracy. Oxford: Oxford University Press,
2001.
KITCHER, P. Science in a democratic society. New York: Prometheus Books,
2011.
280
LACEY, H. Valores e atividade científica 2. São Paulo: Editora 34, 2010.
LLOYD, E. A. et al. Climate scientists set the bar of proof too high. Climatic
Change, v. 165, n. 3, p. 1-10, 2021.
LONGINO, H. E. Science as social knowledge: values and objectivity in
scientific inquiry. Princeton: Princeton University Press, 1990.
LUI, L. et al. A potência do SUS no enfrentamento à Covid-19: alocação de
recursos e ações nos municípios brasileiros. Trabalho, Educação e Saúde, v.
20, e00247178, p. 01-16, 2022.
MERTON, R. K. Ensaios de sociologia do conhecimento. São Paulo: Editora 34,
2013.
MINISTÉRIO DA SAÚDE (ed.). Vírus Zika no Brasil: a resposta do SUS. Brasília:
Ministério da Saúde, 2017. Disponível em: <https://bvsms.saude.gov.br/bvs/
publicacoes/virus_zika_brasil_resposta_%20sus.pdf>.
ORESKES, N. The scientific consensus on climate change: how do we know
we’re not wrong? In: LLOYD, E. A.; WINSBERG, E. (ed.). Climate modelling:
philosophical and conceptual issues. Cham: Springer International Publishing,
2018. p. 31-64.
POLANYI, M. The tacit dimension. Chicago and London: The University of
Chicago Press, 2009.
POWELL, J. L. The consensus on anthropogenic global warming matters.
Bulletin of Science, Technology & Society, v. 36, n. 3, p. 157-163, 2016.
PUTNAM, H. O colapso da verdade e outros ensaios. Aparecida: Ideias & Letras,
2008.
REICHENBACH, H. The rise of scientific philosophy. Los Angeles: University of
California Press, 1951.
REIS, C. R. M. Valores na ciência: devemos dar adeus à imparcialidade?
Principia, v. 25, n. 22, p. 199-218, 2021.
ROONEY, P. The borderlands between epistemic and non-epistemic values. In:
ELLIOTT, K. C.; STEEL, D. (ed.). Current controversies in values and science.
New York: Routledge, 2017. p. 31-46.
RUDNER, R. The scientist qua scientist makes value judgments. Philosophy of
Science, v. 20, n. 1, p. 01-06, 1953.
RYLE, G. Knowing how and knowing that. Proceedings of the Aristotelian
Society, v. 46, p. 01-16, 1945.
SELLARS, W. Empirismo e filosofia da mente. Petrópolis: Editora Vozes, 2008.
SÉRALINI, G.-E. et al. Long term toxicity of a roundup herbicide and a rounduptolerant genetically modified maize. Food and Chemical Toxicology, v. 50, n. 11,
p. 4221-4231, 2012.
281