Questões de Concurso Público CPSMBS - CE 2023 para Médico Especialista em Gastroenterologia

Foram encontradas 4 questões

Q2169223 Português
Leia o texto a seguir para responder à questão.

Avanço da inteligência artificial abre debate sobre riscos da tecnologia
Descobertas preocupam empresas e governos, geram forte reação da sociedade e levam pesquisadores a buscar novas formas de controle.
Por Alessandro Giannini – Publicado em 7 abr 2023.

O bioquímico e escritor de ficção científica russo-americano Isaac Asimov (1920-1992) foi responsável por antecipar e popularizar, em meados do século XX, o conceito de inteligência artificial – IA na literatura. Influenciado pela emergente corrida espacial e pela ebulição tecnológica de seu tempo, Asimov explorou temas como moralidade, ética e as consequências da inovação para a humanidade. No livro Eu, Robô, lançado em 1950, ele reúne nove contos que mostram a evolução dos autômatos ao longo do tempo. Os enredos se passam em um mundo no qual uma série de regras, chamadas “Três Leis da Robótica”, protegem os seres humanos das máquinas. Visionário, Asimov anteviu em sua obra os temores expressos na carta divulgada há alguns dias pelo Future of Life Institute, organização que busca reduzir o risco de grandes tecnologias para a humanidade. Com milhares de assinaturas, a missiva pede aos laboratórios de pesquisa que parem imediatamente o desenvolvimento dos modelos de inteligência artificial – IA, que estariam se tornando perigosamente ativos na realização de tarefas mais complexas. “Esses sistemas só devem progredir quando estivermos confiantes de que seus efeitos serão positivos e seus riscos, gerenciáveis”, adverte o texto.

Subscrito por nomes insuspeitos do mundo digital, como Elon Musk, dono da Tesla e do Twitter, e Steve Wozniak, um dos fundadores da Apple, o documento se tornou um grande sinal de alerta. Entre os riscos descritos na mensagem estão a disseminação de propaganda falsa e desinformação, a potencial obsolescência humana e a perda do controle da civilização. Além do caráter alarmista, surpreende o fato de personagens cuja trajetória está diretamente ligada à inovação — Musk e Wozniak em especial — desejarem deter o avanço tecnológico. Se eles estão apreensivos com o desabrochar da inteligência artificial, imagina-se que algo realmente danoso possa nos atingir.

O temor tem crescido em intensidade e levou a reações em série de governos, empresas e organismos sociais. Na Europa, a Itália bloqueou o funcionamento do ChatGPT, aplicativo criado pela OpenAI que simula conversação humana. Segundo os italianos, o app viola a lei local de dados pessoais. França e Alemanha estão considerando seguir os mesmos passos do país vizinho. Na semana passada, o presidente americano Joe Biden se reuniu com seu conselho de consultores em ciência e tecnologia para debater os “riscos e oportunidades” envolvidos no campo da IA, agora aquecido pela competição aguerrida de conglomerados como as americanas Microsoft e Google e as chinesas Baidu e Tencent, entre outros gigantes. Uma das propostas na mesa seria regulamentar o setor. “A questão é que grupos relativamente pequenos, com recursos limitados, podem avançar a pesquisa nessas áreas”, disse a VEJA o brasileiro Marcelo Gleiser, físico, astrônomo e professor da Dartmouth College, nos EUA. “Portanto, a regulamentação torna-se muito complexa. Quem poderá garantir que as leis serão seguidas?”

A perspectiva histórica enriquece o debate. Quando se analisam com atenção as inovações do passado — as máquinas a vapor, a internet ou o sequenciamento de genomas, é importante observar que elas, especialmente em seu período de afirmação, foram alvo de questionamentos e consideradas perigosas para a humanidade. Contudo, todas se comportaram como o mito da Caixa de Pandora: uma vez aberta, seu conteúdo não pode mais ser contido. A mesma lógica vale para a inteligência artificial? Provavelmente, sim.

[...] Duvidar do potencial das novas tecnologias é típico do espírito humano. Em 1943, o então presidente da IBM, Thomas Watson, disse algo que se tornou risível com o passar dos anos: “Eu acredito que há mercado para talvez cinco computadores”. Em 1946, Darryl Zanuck, fundador do estúdio 20th Century Fox, declarou que “a televisão não vai conseguir se segurar no mercado por mais de seis meses”.

É fácil criticar o passado com os olhos do presente. Mais difícil talvez seja compreender o potencial disruptivo de uma tecnologia e dimensionar seus riscos. Não são poucos os perigos associados à inteligência artificial. Entre os mais marcantes estão a concentração de poder nas mãos de poucas empresas, o desaparecimento de empregos pela automação de atividades, a disseminação descontrolada de ataques cibernéticos e o desenvolvimento de armas autônomas. [...] Mas há um aspecto vital que não pode ser ignorado: o econômico. O mercado de IA está avaliado em 142,3 bilhões de dólares e continua a avançar impulsionado pelo fluxo crescente dos investimentos que recebe. [...] Muitos cientistas, empresários e empreendedores argumentam que os benefícios da tecnologia superam os riscos embutidos nela. O bilionário e filantropo Bill Gates está entre os que pensam dessa maneira. Gates reconheceu e listou avanços gerados pela inteligência artificial que podem ser conquistados em campos como bem-estar social, educação e meio ambiente. Ao mesmo tempo, faz uma importante ponderação. Segundo ele, é imperativo garantir que todos — e não apenas os ricos — desfrutem da nova tecnologia.

Em linhas gerais, existem quatro níveis básicos de inteligência artificial. A primeira, a “fraca”, está associada a tarefas como trancar a porta do carro. No segundo patamar, chamado de “geral”, ela é aplicável a atividades automatizadas que quase não precisam de supervisão humana, como linhas de produção ou a gestão de lavouras. A terceira vertente, denominada “superinteligência artificial”, é usada em máquinas capazes de tomar decisões rápidas de forma quase autônoma, como os carros sem motorista. Recentemente, surgiu a “generativa”, capaz de criar textos, imagens, códigos de programação, vídeos ou qualquer outra linguagem natural, a partir de sistemas de aprendizado de máquina e grandes modelos de linguagem (LLM, na sigla em inglês). O aplicativo “aprende” a partir de buscas em bancos de dados abertos e também analisando os estímulos (“prompts”) alimentados pelos usuários.

Sucesso desde que foi lançado, no fim do ano passado, o ChatGPT conquistou corações e mentes ao responder a estímulos escritos dos usuários como se fosse uma pessoa real. A despeito dos tropeços iniciais, o chatbot, como é chamada a ferramenta criada pela empresa americana OpenAI, ganhou tração popular e atraiu a atenção da Microsoft. [...] É importante reconhecer que esses modelos de linguagem não são perfeitos e têm limitações, como produzir respostas incorretas e sem sentido, além de possíveis vieses.

Mais ou menos ao mesmo tempo, surgiram os geradores de imagens como DALL-E (também da OpenAI), Midjourney e Stable Diffusion, que produzem cenas realistas a partir de definições propostas pelos usuários. Os resultados são tão impressionantes que uma fotografia falsa do papa Francisco vestindo um sobretudo de tecido sintético acolchoado enganou até veículos especializados em moda. Imagens do ex-presidente americano Donald Trump sendo preso em Nova York e do presidente francês Emmanuel Macron atacando manifestantes em Paris rodaram a internet. [...] “Só há uma solução”, disse a VEJA o eng. de robótica israelense Hod Lipson, professor da Universidade Columbia e estudioso do assunto. “Você sempre pode gerar outra inteligência artificial para distinguir o real e o falso.”

A despeito da evolução das tecnologias associadas à inteligência artificial, é consenso entre especialistas e pesquisadores que a natureza humana e sua integridade devem prevalecer. Criador do conceito de realidade virtual e ferrenho crítico das redes sociais, o cientista da computação americano Jaron Lanier declarou recentemente, em tom jocoso, que o maior perigo desses aplicativos não é seu potencial destrutivo, mas a possibilidade de que “nos deixem loucos”. Também signatário da carta que defende um freio de arrumação na inteligência artificial, o historiador e escritor israelense Yuval Noah Harari afirma que avançar na sofisticação dos computadores “pode servir apenas para fortalecer a estupidez natural dos humanos”. As possibilidades são infinitas e, de fato, algumas são assustadoras. Mas a verdade é que a inteligência artificial já está entre nós — e esse é um movimento irreversível.

Adaptado https://veja.abril.com.br/tecnologia/avanco-da-inteligencia-artificial-abredebate-sobre-riscos-da-tecnologia
No terceiro parágrafo, o autor afirma que
“[...] aquecido pela competição aguerrida conglomerados como as americanas Microsoft e Google[...].”
A palavra que modifica o sentido do termo sublinhado nessa frase é 
Alternativas
Q2169224 Português
Leia o texto a seguir para responder à questão.

Avanço da inteligência artificial abre debate sobre riscos da tecnologia
Descobertas preocupam empresas e governos, geram forte reação da sociedade e levam pesquisadores a buscar novas formas de controle.
Por Alessandro Giannini – Publicado em 7 abr 2023.

O bioquímico e escritor de ficção científica russo-americano Isaac Asimov (1920-1992) foi responsável por antecipar e popularizar, em meados do século XX, o conceito de inteligência artificial – IA na literatura. Influenciado pela emergente corrida espacial e pela ebulição tecnológica de seu tempo, Asimov explorou temas como moralidade, ética e as consequências da inovação para a humanidade. No livro Eu, Robô, lançado em 1950, ele reúne nove contos que mostram a evolução dos autômatos ao longo do tempo. Os enredos se passam em um mundo no qual uma série de regras, chamadas “Três Leis da Robótica”, protegem os seres humanos das máquinas. Visionário, Asimov anteviu em sua obra os temores expressos na carta divulgada há alguns dias pelo Future of Life Institute, organização que busca reduzir o risco de grandes tecnologias para a humanidade. Com milhares de assinaturas, a missiva pede aos laboratórios de pesquisa que parem imediatamente o desenvolvimento dos modelos de inteligência artificial – IA, que estariam se tornando perigosamente ativos na realização de tarefas mais complexas. “Esses sistemas só devem progredir quando estivermos confiantes de que seus efeitos serão positivos e seus riscos, gerenciáveis”, adverte o texto.

Subscrito por nomes insuspeitos do mundo digital, como Elon Musk, dono da Tesla e do Twitter, e Steve Wozniak, um dos fundadores da Apple, o documento se tornou um grande sinal de alerta. Entre os riscos descritos na mensagem estão a disseminação de propaganda falsa e desinformação, a potencial obsolescência humana e a perda do controle da civilização. Além do caráter alarmista, surpreende o fato de personagens cuja trajetória está diretamente ligada à inovação — Musk e Wozniak em especial — desejarem deter o avanço tecnológico. Se eles estão apreensivos com o desabrochar da inteligência artificial, imagina-se que algo realmente danoso possa nos atingir.

O temor tem crescido em intensidade e levou a reações em série de governos, empresas e organismos sociais. Na Europa, a Itália bloqueou o funcionamento do ChatGPT, aplicativo criado pela OpenAI que simula conversação humana. Segundo os italianos, o app viola a lei local de dados pessoais. França e Alemanha estão considerando seguir os mesmos passos do país vizinho. Na semana passada, o presidente americano Joe Biden se reuniu com seu conselho de consultores em ciência e tecnologia para debater os “riscos e oportunidades” envolvidos no campo da IA, agora aquecido pela competição aguerrida de conglomerados como as americanas Microsoft e Google e as chinesas Baidu e Tencent, entre outros gigantes. Uma das propostas na mesa seria regulamentar o setor. “A questão é que grupos relativamente pequenos, com recursos limitados, podem avançar a pesquisa nessas áreas”, disse a VEJA o brasileiro Marcelo Gleiser, físico, astrônomo e professor da Dartmouth College, nos EUA. “Portanto, a regulamentação torna-se muito complexa. Quem poderá garantir que as leis serão seguidas?”

A perspectiva histórica enriquece o debate. Quando se analisam com atenção as inovações do passado — as máquinas a vapor, a internet ou o sequenciamento de genomas, é importante observar que elas, especialmente em seu período de afirmação, foram alvo de questionamentos e consideradas perigosas para a humanidade. Contudo, todas se comportaram como o mito da Caixa de Pandora: uma vez aberta, seu conteúdo não pode mais ser contido. A mesma lógica vale para a inteligência artificial? Provavelmente, sim.

[...] Duvidar do potencial das novas tecnologias é típico do espírito humano. Em 1943, o então presidente da IBM, Thomas Watson, disse algo que se tornou risível com o passar dos anos: “Eu acredito que há mercado para talvez cinco computadores”. Em 1946, Darryl Zanuck, fundador do estúdio 20th Century Fox, declarou que “a televisão não vai conseguir se segurar no mercado por mais de seis meses”.

É fácil criticar o passado com os olhos do presente. Mais difícil talvez seja compreender o potencial disruptivo de uma tecnologia e dimensionar seus riscos. Não são poucos os perigos associados à inteligência artificial. Entre os mais marcantes estão a concentração de poder nas mãos de poucas empresas, o desaparecimento de empregos pela automação de atividades, a disseminação descontrolada de ataques cibernéticos e o desenvolvimento de armas autônomas. [...] Mas há um aspecto vital que não pode ser ignorado: o econômico. O mercado de IA está avaliado em 142,3 bilhões de dólares e continua a avançar impulsionado pelo fluxo crescente dos investimentos que recebe. [...] Muitos cientistas, empresários e empreendedores argumentam que os benefícios da tecnologia superam os riscos embutidos nela. O bilionário e filantropo Bill Gates está entre os que pensam dessa maneira. Gates reconheceu e listou avanços gerados pela inteligência artificial que podem ser conquistados em campos como bem-estar social, educação e meio ambiente. Ao mesmo tempo, faz uma importante ponderação. Segundo ele, é imperativo garantir que todos — e não apenas os ricos — desfrutem da nova tecnologia.

Em linhas gerais, existem quatro níveis básicos de inteligência artificial. A primeira, a “fraca”, está associada a tarefas como trancar a porta do carro. No segundo patamar, chamado de “geral”, ela é aplicável a atividades automatizadas que quase não precisam de supervisão humana, como linhas de produção ou a gestão de lavouras. A terceira vertente, denominada “superinteligência artificial”, é usada em máquinas capazes de tomar decisões rápidas de forma quase autônoma, como os carros sem motorista. Recentemente, surgiu a “generativa”, capaz de criar textos, imagens, códigos de programação, vídeos ou qualquer outra linguagem natural, a partir de sistemas de aprendizado de máquina e grandes modelos de linguagem (LLM, na sigla em inglês). O aplicativo “aprende” a partir de buscas em bancos de dados abertos e também analisando os estímulos (“prompts”) alimentados pelos usuários.

Sucesso desde que foi lançado, no fim do ano passado, o ChatGPT conquistou corações e mentes ao responder a estímulos escritos dos usuários como se fosse uma pessoa real. A despeito dos tropeços iniciais, o chatbot, como é chamada a ferramenta criada pela empresa americana OpenAI, ganhou tração popular e atraiu a atenção da Microsoft. [...] É importante reconhecer que esses modelos de linguagem não são perfeitos e têm limitações, como produzir respostas incorretas e sem sentido, além de possíveis vieses.

Mais ou menos ao mesmo tempo, surgiram os geradores de imagens como DALL-E (também da OpenAI), Midjourney e Stable Diffusion, que produzem cenas realistas a partir de definições propostas pelos usuários. Os resultados são tão impressionantes que uma fotografia falsa do papa Francisco vestindo um sobretudo de tecido sintético acolchoado enganou até veículos especializados em moda. Imagens do ex-presidente americano Donald Trump sendo preso em Nova York e do presidente francês Emmanuel Macron atacando manifestantes em Paris rodaram a internet. [...] “Só há uma solução”, disse a VEJA o eng. de robótica israelense Hod Lipson, professor da Universidade Columbia e estudioso do assunto. “Você sempre pode gerar outra inteligência artificial para distinguir o real e o falso.”

A despeito da evolução das tecnologias associadas à inteligência artificial, é consenso entre especialistas e pesquisadores que a natureza humana e sua integridade devem prevalecer. Criador do conceito de realidade virtual e ferrenho crítico das redes sociais, o cientista da computação americano Jaron Lanier declarou recentemente, em tom jocoso, que o maior perigo desses aplicativos não é seu potencial destrutivo, mas a possibilidade de que “nos deixem loucos”. Também signatário da carta que defende um freio de arrumação na inteligência artificial, o historiador e escritor israelense Yuval Noah Harari afirma que avançar na sofisticação dos computadores “pode servir apenas para fortalecer a estupidez natural dos humanos”. As possibilidades são infinitas e, de fato, algumas são assustadoras. Mas a verdade é que a inteligência artificial já está entre nós — e esse é um movimento irreversível.

Adaptado https://veja.abril.com.br/tecnologia/avanco-da-inteligencia-artificial-abredebate-sobre-riscos-da-tecnologia
No décimo primeiro parágrafo lemos:
“Mas a verdade é que a inteligência artificial já está entre nós [...].”
Assinale a alternativa em que a substituição da palavra destacada nessa frase altera seu sentido. 
Alternativas
Q2169226 Português
Leia o texto a seguir para responder à questão.

Avanço da inteligência artificial abre debate sobre riscos da tecnologia
Descobertas preocupam empresas e governos, geram forte reação da sociedade e levam pesquisadores a buscar novas formas de controle.
Por Alessandro Giannini – Publicado em 7 abr 2023.

O bioquímico e escritor de ficção científica russo-americano Isaac Asimov (1920-1992) foi responsável por antecipar e popularizar, em meados do século XX, o conceito de inteligência artificial – IA na literatura. Influenciado pela emergente corrida espacial e pela ebulição tecnológica de seu tempo, Asimov explorou temas como moralidade, ética e as consequências da inovação para a humanidade. No livro Eu, Robô, lançado em 1950, ele reúne nove contos que mostram a evolução dos autômatos ao longo do tempo. Os enredos se passam em um mundo no qual uma série de regras, chamadas “Três Leis da Robótica”, protegem os seres humanos das máquinas. Visionário, Asimov anteviu em sua obra os temores expressos na carta divulgada há alguns dias pelo Future of Life Institute, organização que busca reduzir o risco de grandes tecnologias para a humanidade. Com milhares de assinaturas, a missiva pede aos laboratórios de pesquisa que parem imediatamente o desenvolvimento dos modelos de inteligência artificial – IA, que estariam se tornando perigosamente ativos na realização de tarefas mais complexas. “Esses sistemas só devem progredir quando estivermos confiantes de que seus efeitos serão positivos e seus riscos, gerenciáveis”, adverte o texto.

Subscrito por nomes insuspeitos do mundo digital, como Elon Musk, dono da Tesla e do Twitter, e Steve Wozniak, um dos fundadores da Apple, o documento se tornou um grande sinal de alerta. Entre os riscos descritos na mensagem estão a disseminação de propaganda falsa e desinformação, a potencial obsolescência humana e a perda do controle da civilização. Além do caráter alarmista, surpreende o fato de personagens cuja trajetória está diretamente ligada à inovação — Musk e Wozniak em especial — desejarem deter o avanço tecnológico. Se eles estão apreensivos com o desabrochar da inteligência artificial, imagina-se que algo realmente danoso possa nos atingir.

O temor tem crescido em intensidade e levou a reações em série de governos, empresas e organismos sociais. Na Europa, a Itália bloqueou o funcionamento do ChatGPT, aplicativo criado pela OpenAI que simula conversação humana. Segundo os italianos, o app viola a lei local de dados pessoais. França e Alemanha estão considerando seguir os mesmos passos do país vizinho. Na semana passada, o presidente americano Joe Biden se reuniu com seu conselho de consultores em ciência e tecnologia para debater os “riscos e oportunidades” envolvidos no campo da IA, agora aquecido pela competição aguerrida de conglomerados como as americanas Microsoft e Google e as chinesas Baidu e Tencent, entre outros gigantes. Uma das propostas na mesa seria regulamentar o setor. “A questão é que grupos relativamente pequenos, com recursos limitados, podem avançar a pesquisa nessas áreas”, disse a VEJA o brasileiro Marcelo Gleiser, físico, astrônomo e professor da Dartmouth College, nos EUA. “Portanto, a regulamentação torna-se muito complexa. Quem poderá garantir que as leis serão seguidas?”

A perspectiva histórica enriquece o debate. Quando se analisam com atenção as inovações do passado — as máquinas a vapor, a internet ou o sequenciamento de genomas, é importante observar que elas, especialmente em seu período de afirmação, foram alvo de questionamentos e consideradas perigosas para a humanidade. Contudo, todas se comportaram como o mito da Caixa de Pandora: uma vez aberta, seu conteúdo não pode mais ser contido. A mesma lógica vale para a inteligência artificial? Provavelmente, sim.

[...] Duvidar do potencial das novas tecnologias é típico do espírito humano. Em 1943, o então presidente da IBM, Thomas Watson, disse algo que se tornou risível com o passar dos anos: “Eu acredito que há mercado para talvez cinco computadores”. Em 1946, Darryl Zanuck, fundador do estúdio 20th Century Fox, declarou que “a televisão não vai conseguir se segurar no mercado por mais de seis meses”.

É fácil criticar o passado com os olhos do presente. Mais difícil talvez seja compreender o potencial disruptivo de uma tecnologia e dimensionar seus riscos. Não são poucos os perigos associados à inteligência artificial. Entre os mais marcantes estão a concentração de poder nas mãos de poucas empresas, o desaparecimento de empregos pela automação de atividades, a disseminação descontrolada de ataques cibernéticos e o desenvolvimento de armas autônomas. [...] Mas há um aspecto vital que não pode ser ignorado: o econômico. O mercado de IA está avaliado em 142,3 bilhões de dólares e continua a avançar impulsionado pelo fluxo crescente dos investimentos que recebe. [...] Muitos cientistas, empresários e empreendedores argumentam que os benefícios da tecnologia superam os riscos embutidos nela. O bilionário e filantropo Bill Gates está entre os que pensam dessa maneira. Gates reconheceu e listou avanços gerados pela inteligência artificial que podem ser conquistados em campos como bem-estar social, educação e meio ambiente. Ao mesmo tempo, faz uma importante ponderação. Segundo ele, é imperativo garantir que todos — e não apenas os ricos — desfrutem da nova tecnologia.

Em linhas gerais, existem quatro níveis básicos de inteligência artificial. A primeira, a “fraca”, está associada a tarefas como trancar a porta do carro. No segundo patamar, chamado de “geral”, ela é aplicável a atividades automatizadas que quase não precisam de supervisão humana, como linhas de produção ou a gestão de lavouras. A terceira vertente, denominada “superinteligência artificial”, é usada em máquinas capazes de tomar decisões rápidas de forma quase autônoma, como os carros sem motorista. Recentemente, surgiu a “generativa”, capaz de criar textos, imagens, códigos de programação, vídeos ou qualquer outra linguagem natural, a partir de sistemas de aprendizado de máquina e grandes modelos de linguagem (LLM, na sigla em inglês). O aplicativo “aprende” a partir de buscas em bancos de dados abertos e também analisando os estímulos (“prompts”) alimentados pelos usuários.

Sucesso desde que foi lançado, no fim do ano passado, o ChatGPT conquistou corações e mentes ao responder a estímulos escritos dos usuários como se fosse uma pessoa real. A despeito dos tropeços iniciais, o chatbot, como é chamada a ferramenta criada pela empresa americana OpenAI, ganhou tração popular e atraiu a atenção da Microsoft. [...] É importante reconhecer que esses modelos de linguagem não são perfeitos e têm limitações, como produzir respostas incorretas e sem sentido, além de possíveis vieses.

Mais ou menos ao mesmo tempo, surgiram os geradores de imagens como DALL-E (também da OpenAI), Midjourney e Stable Diffusion, que produzem cenas realistas a partir de definições propostas pelos usuários. Os resultados são tão impressionantes que uma fotografia falsa do papa Francisco vestindo um sobretudo de tecido sintético acolchoado enganou até veículos especializados em moda. Imagens do ex-presidente americano Donald Trump sendo preso em Nova York e do presidente francês Emmanuel Macron atacando manifestantes em Paris rodaram a internet. [...] “Só há uma solução”, disse a VEJA o eng. de robótica israelense Hod Lipson, professor da Universidade Columbia e estudioso do assunto. “Você sempre pode gerar outra inteligência artificial para distinguir o real e o falso.”

A despeito da evolução das tecnologias associadas à inteligência artificial, é consenso entre especialistas e pesquisadores que a natureza humana e sua integridade devem prevalecer. Criador do conceito de realidade virtual e ferrenho crítico das redes sociais, o cientista da computação americano Jaron Lanier declarou recentemente, em tom jocoso, que o maior perigo desses aplicativos não é seu potencial destrutivo, mas a possibilidade de que “nos deixem loucos”. Também signatário da carta que defende um freio de arrumação na inteligência artificial, o historiador e escritor israelense Yuval Noah Harari afirma que avançar na sofisticação dos computadores “pode servir apenas para fortalecer a estupidez natural dos humanos”. As possibilidades são infinitas e, de fato, algumas são assustadoras. Mas a verdade é que a inteligência artificial já está entre nós — e esse é um movimento irreversível.

Adaptado https://veja.abril.com.br/tecnologia/avanco-da-inteligencia-artificial-abredebate-sobre-riscos-da-tecnologia
Leia a afirmação contida no oitavo parágrafo.
“Em linhas gerais, existem quatro níveis básicos de inteligência artificial.”
A única variação INCORRETA para essa frase é:
Alternativas
Q2169228 Português
Leia o texto a seguir para responder à questão.

Avanço da inteligência artificial abre debate sobre riscos da tecnologia
Descobertas preocupam empresas e governos, geram forte reação da sociedade e levam pesquisadores a buscar novas formas de controle.
Por Alessandro Giannini – Publicado em 7 abr 2023.

O bioquímico e escritor de ficção científica russo-americano Isaac Asimov (1920-1992) foi responsável por antecipar e popularizar, em meados do século XX, o conceito de inteligência artificial – IA na literatura. Influenciado pela emergente corrida espacial e pela ebulição tecnológica de seu tempo, Asimov explorou temas como moralidade, ética e as consequências da inovação para a humanidade. No livro Eu, Robô, lançado em 1950, ele reúne nove contos que mostram a evolução dos autômatos ao longo do tempo. Os enredos se passam em um mundo no qual uma série de regras, chamadas “Três Leis da Robótica”, protegem os seres humanos das máquinas. Visionário, Asimov anteviu em sua obra os temores expressos na carta divulgada há alguns dias pelo Future of Life Institute, organização que busca reduzir o risco de grandes tecnologias para a humanidade. Com milhares de assinaturas, a missiva pede aos laboratórios de pesquisa que parem imediatamente o desenvolvimento dos modelos de inteligência artificial – IA, que estariam se tornando perigosamente ativos na realização de tarefas mais complexas. “Esses sistemas só devem progredir quando estivermos confiantes de que seus efeitos serão positivos e seus riscos, gerenciáveis”, adverte o texto.

Subscrito por nomes insuspeitos do mundo digital, como Elon Musk, dono da Tesla e do Twitter, e Steve Wozniak, um dos fundadores da Apple, o documento se tornou um grande sinal de alerta. Entre os riscos descritos na mensagem estão a disseminação de propaganda falsa e desinformação, a potencial obsolescência humana e a perda do controle da civilização. Além do caráter alarmista, surpreende o fato de personagens cuja trajetória está diretamente ligada à inovação — Musk e Wozniak em especial — desejarem deter o avanço tecnológico. Se eles estão apreensivos com o desabrochar da inteligência artificial, imagina-se que algo realmente danoso possa nos atingir.

O temor tem crescido em intensidade e levou a reações em série de governos, empresas e organismos sociais. Na Europa, a Itália bloqueou o funcionamento do ChatGPT, aplicativo criado pela OpenAI que simula conversação humana. Segundo os italianos, o app viola a lei local de dados pessoais. França e Alemanha estão considerando seguir os mesmos passos do país vizinho. Na semana passada, o presidente americano Joe Biden se reuniu com seu conselho de consultores em ciência e tecnologia para debater os “riscos e oportunidades” envolvidos no campo da IA, agora aquecido pela competição aguerrida de conglomerados como as americanas Microsoft e Google e as chinesas Baidu e Tencent, entre outros gigantes. Uma das propostas na mesa seria regulamentar o setor. “A questão é que grupos relativamente pequenos, com recursos limitados, podem avançar a pesquisa nessas áreas”, disse a VEJA o brasileiro Marcelo Gleiser, físico, astrônomo e professor da Dartmouth College, nos EUA. “Portanto, a regulamentação torna-se muito complexa. Quem poderá garantir que as leis serão seguidas?”

A perspectiva histórica enriquece o debate. Quando se analisam com atenção as inovações do passado — as máquinas a vapor, a internet ou o sequenciamento de genomas, é importante observar que elas, especialmente em seu período de afirmação, foram alvo de questionamentos e consideradas perigosas para a humanidade. Contudo, todas se comportaram como o mito da Caixa de Pandora: uma vez aberta, seu conteúdo não pode mais ser contido. A mesma lógica vale para a inteligência artificial? Provavelmente, sim.

[...] Duvidar do potencial das novas tecnologias é típico do espírito humano. Em 1943, o então presidente da IBM, Thomas Watson, disse algo que se tornou risível com o passar dos anos: “Eu acredito que há mercado para talvez cinco computadores”. Em 1946, Darryl Zanuck, fundador do estúdio 20th Century Fox, declarou que “a televisão não vai conseguir se segurar no mercado por mais de seis meses”.

É fácil criticar o passado com os olhos do presente. Mais difícil talvez seja compreender o potencial disruptivo de uma tecnologia e dimensionar seus riscos. Não são poucos os perigos associados à inteligência artificial. Entre os mais marcantes estão a concentração de poder nas mãos de poucas empresas, o desaparecimento de empregos pela automação de atividades, a disseminação descontrolada de ataques cibernéticos e o desenvolvimento de armas autônomas. [...] Mas há um aspecto vital que não pode ser ignorado: o econômico. O mercado de IA está avaliado em 142,3 bilhões de dólares e continua a avançar impulsionado pelo fluxo crescente dos investimentos que recebe. [...] Muitos cientistas, empresários e empreendedores argumentam que os benefícios da tecnologia superam os riscos embutidos nela. O bilionário e filantropo Bill Gates está entre os que pensam dessa maneira. Gates reconheceu e listou avanços gerados pela inteligência artificial que podem ser conquistados em campos como bem-estar social, educação e meio ambiente. Ao mesmo tempo, faz uma importante ponderação. Segundo ele, é imperativo garantir que todos — e não apenas os ricos — desfrutem da nova tecnologia.

Em linhas gerais, existem quatro níveis básicos de inteligência artificial. A primeira, a “fraca”, está associada a tarefas como trancar a porta do carro. No segundo patamar, chamado de “geral”, ela é aplicável a atividades automatizadas que quase não precisam de supervisão humana, como linhas de produção ou a gestão de lavouras. A terceira vertente, denominada “superinteligência artificial”, é usada em máquinas capazes de tomar decisões rápidas de forma quase autônoma, como os carros sem motorista. Recentemente, surgiu a “generativa”, capaz de criar textos, imagens, códigos de programação, vídeos ou qualquer outra linguagem natural, a partir de sistemas de aprendizado de máquina e grandes modelos de linguagem (LLM, na sigla em inglês). O aplicativo “aprende” a partir de buscas em bancos de dados abertos e também analisando os estímulos (“prompts”) alimentados pelos usuários.

Sucesso desde que foi lançado, no fim do ano passado, o ChatGPT conquistou corações e mentes ao responder a estímulos escritos dos usuários como se fosse uma pessoa real. A despeito dos tropeços iniciais, o chatbot, como é chamada a ferramenta criada pela empresa americana OpenAI, ganhou tração popular e atraiu a atenção da Microsoft. [...] É importante reconhecer que esses modelos de linguagem não são perfeitos e têm limitações, como produzir respostas incorretas e sem sentido, além de possíveis vieses.

Mais ou menos ao mesmo tempo, surgiram os geradores de imagens como DALL-E (também da OpenAI), Midjourney e Stable Diffusion, que produzem cenas realistas a partir de definições propostas pelos usuários. Os resultados são tão impressionantes que uma fotografia falsa do papa Francisco vestindo um sobretudo de tecido sintético acolchoado enganou até veículos especializados em moda. Imagens do ex-presidente americano Donald Trump sendo preso em Nova York e do presidente francês Emmanuel Macron atacando manifestantes em Paris rodaram a internet. [...] “Só há uma solução”, disse a VEJA o eng. de robótica israelense Hod Lipson, professor da Universidade Columbia e estudioso do assunto. “Você sempre pode gerar outra inteligência artificial para distinguir o real e o falso.”

A despeito da evolução das tecnologias associadas à inteligência artificial, é consenso entre especialistas e pesquisadores que a natureza humana e sua integridade devem prevalecer. Criador do conceito de realidade virtual e ferrenho crítico das redes sociais, o cientista da computação americano Jaron Lanier declarou recentemente, em tom jocoso, que o maior perigo desses aplicativos não é seu potencial destrutivo, mas a possibilidade de que “nos deixem loucos”. Também signatário da carta que defende um freio de arrumação na inteligência artificial, o historiador e escritor israelense Yuval Noah Harari afirma que avançar na sofisticação dos computadores “pode servir apenas para fortalecer a estupidez natural dos humanos”. As possibilidades são infinitas e, de fato, algumas são assustadoras. Mas a verdade é que a inteligência artificial já está entre nós — e esse é um movimento irreversível.

Adaptado https://veja.abril.com.br/tecnologia/avanco-da-inteligencia-artificial-abredebate-sobre-riscos-da-tecnologia
No primeiro parágrafo lemos.
“Esses sistemas só devem progredir quando estivermos confiantes de que seus efeitos serão positivos e seus riscos, gerenciáveis”.
Marque a alternativa que apresenta outra possibilidade CORRETA de pontuação desse período.
Alternativas
Respostas
1: B
2: D
3: C
4: B