Questões de Língua Portuguesa da Instituto Consulplan

Pesquise questões de concurso nos filtros abaixo

Listagem de Questões de Língua Portuguesa da Instituto Consulplan

O câncer cada vez mais próximo da cura



    Ao realizar uma pesquisa breve no portal de periódicos da Capes, uma das principais referências nacionais no que se refere aos acervos das produções acadêmicas, é possível notar que há 203 resultados para o termo cura do câncer somente nos últimos dois anos. Isso nos ajuda a pressupor uma ideia óbvia: há um desejo incontido dos pesquisadores por tratamentos que tornem o câncer bem menos letal.


    Os tratamentos convencionais, principalmente a radioterapia e a quimioterapia, dão uma contribuição importante, mas esbarram fortemente em efeitos colaterais que comprometem a qualidade de vida do paciente durante o combate ao tumor. Minimizar esse sofrimento e potencializar as chances de cura são, portanto, duas estratégias sobre as quais a ciência se debruça todos os dias.


    Uma das respostas mais importantes nesse sentido, se não a mais, vem sendo o CAR-T Cell. A técnica é uma revolução na imunoterapia e no combate a alguns tipos de câncer, especialmente a leucemia linfoblástica aguda (LLA), o linfoma não-Hodgkin (LNH) e o mieloma múltiplo. O tratamento consiste na extração de algumas células T, que atuam no sistema imunológico, do próprio paciente. Essas células são então programadas para combater as células cancerígenas, e na sequência são reinseridas no corpo do paciente.


    Há uma multiplicação de casos de pacientes que simplesmente se livraram do câncer. Um deles ganhou recentemente uma atenção ampla nos sites de notícias nacionais. Um brasileiro de 61 anos, diagnosticado com linfoma não-Hodgkin, já havia passado por 45 sessões de quimioterapia sem sucesso, e estava prestes a ser conduzido a cuidados paliativos. Depois de se submeter à imunoterapia com CAR-T Cell, o câncer simplesmente desapareceu.


    O grande salto da ciência hoje em relação ao tratamento é sua expansão para outros tipos de câncer. O procedimento é visto como a grande esperança contra os tumores sólidos, como de próstata, de mama e de cérebro. Se a cura do câncer figura entre os temas recorrentes da Capes, não podemos nos furtar de dizer que alguma parte desse acervo é composta também por produções científicas que tratam dos avanços do CAR-T Cell para novas fronteiras.


    Hoje, esses estudos se debruçam principalmente sobre a genética do câncer. Grosseiramente, é como se a ciência estivesse produzindo um manual de instruções sobre cada câncer para, através dessa imunoterapia, reprogramar as células T para atacar pontualmente o problema identificado no seu organismo de origem.


    É possível classificar, portanto, como uma tendência as chances de já nos próximos anos esse tratamento ser expandido para novos tipos de tumores que hoje ainda não estão no radar da ciência. O CAR-T Cell é um procedimento que pode levar à cura do câncer. E isso leva a comunidade científica a alimentar a esperança de que a profusão de relatos favoráveis à cura logo serão o tema principal das produções acadêmicas neste campo. Quem viver verá.



(Guilherme Muzzi. Disponível em: https://www.hojeemdia.com.br/opiniao. Acesso em: fevereiro de 2025.)

Indique, a seguir, a alternativa que apresenta corretamente referências às temáticas que podem ser reconhecidas no texto em análise

Alterar estruturas da língua pode alterar as relações sociais?


Conjunto de falantes é o árbitro das mudanças linguísticas.


        É sempre interessante observar como a língua se comporta diante das tensões que nela se refletem. De uns tempos para cá, muita gente passou a ser corrigida em público nas transmissões ao vivo na internet por uma audiência empenhada em rastrear as marcas de racismo, machismo, homofobia e demais preconceitos que estariam inscritos na língua. Não foram poucos os que passaram a monitorar não apenas a fala alheia como ____ própria, ciosos de que mudar as palavras é uma forma de mudar o mundo. Talvez seja, talvez não seja. O tempo dirá.


         Personagens de novela, que geralmente aparecem na trama fazendo merchandising de produtos, passaram a vender também as lições civilizatórias da cultura “woke”. “Nuvens negras” que anunciavam mau tempo foram substituídas por “nuvens cinza” e muitos outros exemplos foram incorporados aos scripts. Ao mesmo tempo, a ministra Anielle Franco ressaltou que termos como “caixa-preta” e “buraco negro”, que pareciam insuspeitos, também tinham uma carga de preconceito racial.


         O verbo “denegrir”, mesmo sendo usado desde o latim no sentido de manchar a reputação, foi um dos principais alvos das cartilhas de letramento racial que apareceram na internet, associado ____ cor de pele de pessoas, sempre com a advertência de que era muito importante mudar os hábitos linguísticos. A motivação é das melhores; só não sabemos ainda se isso vai contribuir, de fato, para o fim do racismo e dos demais preconceitos.


         Dia desses, ouvi uma pessoa ser corrigida em uma live ao usar a expressão “mãe solteira”, que deveria ser substituída por “mãe solo”. A explicação era que “mãe solteira” é uma expressão preconceituosa porque o estado civil não tem nada a ver com a maternidade. Perfeito. Nesse caso, talvez o ideal fosse a supressão do adjetivo: já que não se diz “mãe casada” ou “mãe viúva”, por que dizer “mãe solteira”? Bastaria dizer “mãe”.


        Outro caso interessante é o da expressão “pessoa com deficiência”, que viria substituir “deficiente”, pois nenhum ser humano deveria ser definido pela sua deficiência – o uso da palavra “pessoa” teria uma função importante na conscientização de que eventuais deficiências não impedem alguém de ter uma vida normal. De fato, mas o que se vê hoje é que a expressão foi reduzida ____ uma sigla (PcD) e lida “pê-cê-dê”. É provável que essa simplificação tenha ocorrido em razão do princípio da economia, muito importante na comunicação.


         ____ algum tempo, tribunais eleitorais vinham usando com insistência a construção “eleitores e eleitoras” e também “pessoa eleitora”. Parece que as coisas andaram mudando. Em trabalhos acadêmicos, sobretudo na área de humanidades, passou a ser “obrigatório” o uso da linguagem dita “inclusiva”, de modo que, onde se lia “os historiadores”, se passou a ler “os historiadores e as historiadoras” – e assim por diante, sempre com as duas palavras, no masculino e no feminino. No meio acadêmico, o uso se tornou comum.


        Uma coisa, porém, temos de reconhecer. Essa prática, além de tornar o texto enfadonho, é totalmente desnecessária. O motivo é muito simples: a forma “historiadores”, no masculino, generaliza as pessoas que exercem essa atividade. É a condição de “historiador” que interessa quando usamos o termo de modo geral (por exemplo, “os historiadores do século passado”), não a identidade do ser humano. O termo feminino existe para as situações em que tratamos de uma ou mais mulheres em particular (“uma historiadora do período”). Isso vale para qualquer termo que indique a função, a condição, a profissão etc., mas não vale, por óbvio, para homens e mulheres. Ninguém nunca disse os “homens aqui presentes” com o intuito de englobar “homens e mulheres”, certo?


        O problema é que não está a nosso alcance fazer uma mudança desse teor, de caráter estrutural. A língua é uma construção coletiva autogerida. É a coletividade representada pelos falantes que determina o que muda e o que não muda, o que tem cabimento e o que não tem. É fácil perceber isso no caso dos neologismos, que, quando úteis ou funcionais, passam a integrar a língua, mesmo que alguns os rejeitem por apego ___ tradição ou por outro motivo.


        O pronome “todos”, por exemplo, é um pronome indefinido que indica totalidade inclusiva (todas as pessoas). É uma das pala vras mais inclusivas da língua (ao lado de “tudo”), mas a cartilha da inclusão recomenda cumprimentar a “todos e todas”, reduzindo o alcance de “todos”, que ficaria restrito ao gênero masculino. Pode-se dizer que essa fórmula de saudação foi bem-aceita e acabou virando regra de etiqueta em alguns lugares. Cumprimenta-se a “todos e todas” e, depois, está-se livre para continuar falando de forma econômica.


     O tempo dirá se a sociedade mudou no rastro das palavras ou se o movimento é exatamente o inverso. Aguardemos.


(NICOLETI, Thaís. Alterar estruturas da língua pode alterar as relações sociais? Jornal Folha de S. Paulo, 2024. Adaptado.) 

De acordo com o texto, o exemplo que melhor corrobora a afirmativa “Conjunto de falantes é o árbitro das mudanças linguís ticas” (subtítulo) é: 

Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva


   Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

   Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

   Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

   Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

    A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

    No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.


(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
Dentre os segmentos destacados a seguir, assinale o que utiliza estratégia argumentativa que confere legitimação à informação e/ou ideia apresentada, diferenciando-se, por esse motivo, dos demais.

Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva


   Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

   Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

   Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

   Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

    A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

    No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.


(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
A escolha linguística para indicar o sujeito, agente da ação verbal, em “Estamos vivendo a era da datificação, [...]” (1º§) denota:

Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva


   Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

   Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

   Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

   Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

    A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

    No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.


(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
O livre comentário a seguir, referente ao texto, que apresenta correção gramatical, está indicado em:

Navegue em mais matérias e assuntos

{TITLE}

{CONTENT}

{TITLE}

{CONTENT}
Estude Grátis