quarta-feira, 10 de setembro de 2025

Ferramentas de IA para buscar artigos científicos


O uso de ferramentas de Inteligência Artificial para encontrar e analisar artigos científicos é uma das aplicações da IA na pesquisa. Elas vão muito além de um motor de busca tradicional como o Google Acadêmico, pois usam IA para entender o contexto da sua pergunta e a relação entre diferentes trabalhos. Essas ferramentas, se bem usadas, podem proporcionar um grande ganho de produtividade.

O Papel da IA na Pesquisa Bibliográfica

As ferramentas tradicionais de busca, como o Google Acadêmico e o PubMed, funcionam principalmente com base em palavras-chave. Você precisa saber exatamente o que procurar. Já as ferramentas de IA, que usam o que chamamos de busca semântica, entendem o significado e o contexto da sua pesquisa. Elas conseguem:

  • Encontrar artigos relacionados: Mesmo que o artigo não use exatamente a palavra-chave que você digitou.
  • Sintetizar o conhecimento: Elas podem ler e resumir vários artigos, destacando os pontos principais e as conclusões.
  • Mapear conexões: Mostram como diferentes autores e artigos se conectam, identificando os trabalhos mais influentes e as lacunas na literatura.

Ferramentas de IA para Encontrar Artigos Científicos

Aqui estão algumas das melhores e mais populares ferramentas de IA para pesquisa acadêmica:

  1. Elicit: Considerada por muitos uma das melhores ferramentas para o início da pesquisa. Você faz uma pergunta de pesquisa (por exemplo, "Quais são os efeitos do sono na memória?"), e o Elicit encontra os artigos mais relevantes, gera resumos dos pontos-chave, e até mesmo extrai tabelas de dados de cada estudo, poupando muito tempo.
  2. Scite.ai: O Scite é um motor de busca e uma plataforma de descoberta que se destaca por mostrar como os artigos se citam. Ele não só encontra artigos, mas também indica se um trabalho está apoiando uma afirmação, contrastando com ela ou apenas mencionando-a. Isso é extremamente útil para entender o consenso ou a controvérsia em um campo de pesquisa.
  3. Consensus: O Consensus é uma ferramenta de busca semântica que encontra evidências diretamente de artigos de pesquisa. Você faz uma pergunta de sim ou não ("A meditação reduz a ansiedade?"), e a ferramenta busca artigos para dar uma resposta baseada em consenso científico, citando as evidências de cada trabalho.
  4. Semantic Scholar: Desenvolvido pelo Allen Institute for AI, o Semantic Scholar é um buscador de literatura científica gratuito que usa IA para destacar as partes mais importantes de um artigo. Ele também cria um "mapa" de artigos relacionados, mostrando os trabalhos mais citados e os artigos subsequentes que citaram o original.
  5. Perplexity AI: O Perplexity AI se diferencia por ser um "mecanismo de resposta" que oferece respostas concisas e bem referenciadas para suas perguntas. Ele cita as fontes usadas para gerar a resposta, incluindo artigos científicos, o que facilita a verificação e o aprofundamento na literatura original.

Ao usar essas ferramentas, a sua pesquisa bibliográfica se torna mais estratégica, eficiente e aprofundada.


Este artigo foi cuidadosamente elaborado com o auxílio do Google Gemini, um avançado modelo de linguagem de IA. A colaboração com a inteligência artificial teve como objetivo otimizar a estrutura do texto, garantir a clareza das informações e aprofundar a discussão sobre o tema, oferecendo um conteúdo relevante e bem organizado para a sua leitura.

#InteligenciaArtificial #IA #GoogleGemini #ProducaoDeConteudo #Tecnologia #Blogs #EscritaComIA #Pesquisa #Mestrado 

segunda-feira, 8 de setembro de 2025

Como a IA Pode Ajudar na Pesquisa Acadêmica

 

A inteligência artificial (IA) pode ser uma ferramenta poderosa para estudantes de mestrado, doutorado e até pesquisadores experientes, ajudando a otimizar e aprimorar várias etapas da pesquisa acadêmica. Potencialmente, o tempo também pode ser otimizado com o uso da IA. Entretanto, é sempre bom conferir as regras e normas adotadas pela sua instituição em relação ao uso da IA. 


1. Pesquisa e Revisão de Literatura

A pesquisa bibliográfica para uma tese ou dissertação é um dos processos mais demorados. A IA pode acelerar isso de maneira significativa.

  • Busca Semântica: Em vez de usar palavras-chave exatas, ferramentas de IA como o Elicit ou o Scite podem entender o significado da sua pergunta de pesquisa e encontrar artigos, teses e patentes relevantes.
  • Resumo e Síntese: A IA pode gerar resumos de artigos longos, poupando tempo de leitura. Além disso, pode identificar os principais argumentos e descobertas em múltiplos textos, ajudando a sintetizar a revisão de literatura.
  • Identificação de Lacunas: A IA pode analisar um grande volume de artigos e identificar tópicos pouco explorados ou lacunas na pesquisa, sugerindo caminhos para sua própria investigação.

2. Organização e Gerenciamento de Dados

A fase de coleta e organização de dados pode ser complexa. A IA pode ajudar a dar sentido a grandes conjuntos de informações.

  • Transcrição Automática: Softwares de IA podem transcrever áudios de entrevistas ou reuniões, transformando horas de gravação em texto editável em minutos.
  • Análise de Dados Qualitativos: Ferramentas de IA podem ajudar a identificar padrões e temas em grandes volumes de dados qualitativos (como respostas de entrevistas abertas ou documentos), facilitando a codificação e a análise.
  • Visualização de Dados: A IA pode criar visualizações (gráficos, mapas, diagramas) a partir de seus dados brutos, ajudando a identificar tendências e a apresentar os resultados de forma clara.

3. Redação e Edição

A escrita acadêmica exige precisão. A IA pode funcionar como um assistente de escrita, ajudando a melhorar a qualidade do texto.

  • Assistência na Escrita: Ferramentas como o ChatGPT podem sugerir maneiras de reformular frases, encontrar sinônimos mais adequados ou estruturar parágrafos. A IA pode ajudar a escrever partes introdutórias ou conclusivas, mas a autoria do conteúdo principal deve ser sua.
  • Verificação Gramatical e de Estilo: A IA é excelente para identificar erros de gramática, ortografia e pontuação, além de sugerir melhorias de estilo, clareza e concisão, garantindo que o texto atenda aos padrões acadêmicos.
  • Checagem de Plágio: Ferramentas de IA podem ser usadas para verificar se o seu texto se assemelha a fontes existentes, ajudando a evitar o plágio não intencional e garantindo a originalidade do trabalho.

4. Geração de Ideias e Estruturação

Em momentos de bloqueio criativo, a IA pode ser um bom ponto de partida.

  • Brainstorming de Tópicos: A IA pode gerar ideias para títulos, tópicos de pesquisa e até mesmo perguntas de pesquisa, ajudando a refinar seu foco.
  • Criação de Estrutura: Ao fornecer o seu tema, a IA pode sugerir um esboço detalhado para a tese, dividindo-a em capítulos e seções lógicas. Claro, as regras específicas de seu programa de pós-graduação devem ser respeitadas. 

O uso ético e responsável da IA é fundamental. Lembre-se que a IA é uma ferramenta para complementar, e não para substituir, seu próprio trabalho intelectual, pensamento crítico e a sua criatividade.


**Nota sobre a criação deste conteúdo:**
Este texto foi elaborado com o auxílio do Google Gemini, um modelo de linguagem de IA. O objetivo foi otimizar o processo de escrita e garantir que as informações estivessem claras e bem organizadas para a sua leitura.

sábado, 6 de setembro de 2025

Evitando o Plágio Acadêmico Não Intencional na Era da IA

 

O uso de ferramentas de Inteligência Artificial para auxiliar em trabalhos acadêmicos, como a pesquisa de informações ou a organização de ideias, trouxe novos desafios para a integridade acadêmica. A linha entre a inspiração e o plágio, especialmente o plágio não intencional, pode se tornar mais tênue. Para evitar esse tipo de situação, é crucial adotar práticas conscientes e responsáveis.


Entendendo o Problema

O plágio não intencional ocorre quando você utiliza material de outra pessoa sem dar o devido crédito, seja por falta de conhecimento das normas de citação, por esquecimento, ou até mesmo por uma paráfrase inadequada. O uso de IA pode exacerbar esse risco de diversas formas:

  • Paráfrase insuficiente: Ferramentas de IA podem gerar textos que são muito parecidos com a fonte original, alterando apenas algumas palavras. Se você copiar esse texto sem citar a fonte, isso configura plágio.
  • Incorporação de ideias sem crédito: A IA pode sintetizar informações de múltiplas fontes, tornando difícil identificar a origem de cada ideia. Se você usar essas ideias sem rastrear e citar a fonte original, estará cometendo plágio.
  • Falta de autoria: A principal regra para evitar o plágio é que o texto deve ser seu. A IA é uma ferramenta, não uma substituta para o seu pensamento crítico e originalidade.

Estratégias Práticas para Evitar o Plágio

Para manter a integridade do seu trabalho e garantir a originalidade, siga estas dicas:

  1. Compreenda as Normas de Citação: Familiarize-se com o estilo de citação exigido pela sua instituição (por exemplo, ABNT, APA, Vancouver, MLA). Aprender a citar corretamente é a sua principal defesa contra o plágio. Entenda a diferença entre citação direta (quando você usa as palavras exatas do autor, entre aspas) e paráfrase (quando você reescreve a ideia com suas próprias palavras).
  2. Use a IA como Ferramenta, Não como Gerador de Texto: Pense na IA como um assistente de pesquisa. Use-a para:
    • Brainstorming de ideias: Peça para a IA sugerir diferentes ângulos para o seu tema.
    • Organização da estrutura: Use-a para criar um esboço do seu trabalho.
    • Sugestão de fontes: Peça para a IA indicar artigos e livros relevantes para a sua pesquisa.
  3. Sempre Verifique as Fontes: Quando a IA fornecer informações, procure as fontes originais e leia-as. Não use o conteúdo gerado pela IA cegamente. Apenas o texto que você leu e compreendeu em sua fonte original deve ser usado.
  4. Paráfrase Efetiva e Citação: Ao reescrever uma ideia, certifique-se de que a paráfrase seja realmente sua. Mantenha as palavras da IA de lado e escreva a ideia em sua própria voz, com seu estilo. Depois, lembre-se de citar a fonte da qual a ideia original foi extraída.
  5. Mantenha um Diário de Pesquisa: Crie um documento (um "diário de pesquisa") onde você anote todas as fontes que consultar, sejam elas de artigos, livros ou sites. Para cada anotação, registre a referência completa (autor, ano, título, etc.) e o trecho que você achou relevante. Isso te ajudará a rastrear de onde veio cada ideia.
  6. Use Ferramentas de Verificação de Plágio: Muitas universidades oferecem acesso a softwares de verificação de plágio, como Turnitin ou Copyleaks. Use-os para analisar seu texto antes de submetê-lo. Eles podem ajudar a identificar trechos que se assemelham a fontes existentes, permitindo que você corrija e adicione as citações necessárias.

Ao integrar essas práticas em seu processo de escrita, você não apenas evita o plágio, mas também fortalece sua capacidade de pensar criticamente e produzir um trabalho acadêmico de alta qualidade e originalidade.


=> Este artigo foi elaborado com o auxílio da Inteligência Artificial Gemini. A IA foi utilizada para estruturar o conteúdo e para aprimorar a clareza e a coesão do texto. O conteúdo final foi revisado e editado por [Seu Nome], garantindo a precisão e a adequação das informações.

quarta-feira, 3 de setembro de 2025

Vagas para doutorado - RENOEN - Polo IFCE (2026.1)

Saiu o edital (normas complementares) para nova turma do RENOEN - Polo IFCE. 

Informações básicas: 

O processo seletivo referente ao Polo IFCE seguirá as normas gerais do Edital Geral RENOEN Nº 002/2025 (Turma 2026.1), que dispõe sobre o processo de Seleção ao Curso de Doutorado do Programa de Pós-Graduação em ENSINO da Rede Nordeste de Ensino (RENOEN) - Turma 2026.1, e destas Normas Complementares, as quais são estruturadas com base nas políticas e resoluções internas do Instituto Federal de Educação, Ciência e Tecnologia, considerando a PORTARIA Nº 4030/GAB-FOR/DG- FOR/FORTALEZA, DE 09 DE JULHO DE 2024 que designa a comissão responsável pela organização do certame.

O processo seletivo para o Polo RENOEN/IFCE busca selecionar candidatos egressos de programas de pós-graduação na área de ENSINO (46) e quaisquer outras áreas que coaduem com o Ensino.

Conforme especificado no Edital Geral RENOEN 002/2025, no Quadro 1. (Número de vagas por Polo (Instituição Associada) – Entrada 2026.1 do item 1 deste Edital, o Polo IFCE irá disponibilizar um total de 26 vagas para ingresso em 2026.1, a serem distribuídas conforme o Quadro I a seguir: 

Cronograma parcial:


 >>>>>>>> Informações completas aqui.

Fé, Ética e Dignidade Humana na Era da Inteligência Artificial: Um Chamado à Ação - Élder W. Gong.

Elder Gerrit W. Gong of the Quorum of the Twelve Apostles speaks about artificial intelligence during a session of the World Council of Religions for Peace in Istanbul, Republic of Türkiye, Tuesday, July 29, 2025. The Church of Jesus Christ of Latter-day Saints

Fé, Ética e Dignidade Humana na Era da Inteligência Artificial: Um Chamado à Ação

Por Elder Gerrit W. Gong, do Quórum dos Doze Apóstolos
Fonte e arquivo original aqui. Data: 29/julho/2025 - 
Religions for Peace World Council in Istanbul, Republic of Türkiye. Ver também aqui.

Sua Eminência Metropolitana Emmanuel, Elder Metropolitano de Calcedônia, Secretário-Geral Dr. Francis Kuria, estimados líderes religiosos, senhoras e senhores, expressamos nossa gratidão à Religiões pela Paz Mundial por reunir nossas diversas e vibrantes tradições de fé na histórica Istambul. É uma honra representar A Igreja de Jesus Cristo dos Santos dos Últimos Dias nesta conferência oportuna e abordar o tema “Fé, Ética e Dignidade Humana na Era da Inteligência Artificial”.

De certa forma, a inteligência artificial (IA) conecta as três sessões de nossa conferência, pois a IA pode desempenhar um papel no florescimento humano (nossa primeira sessão) e na prosperidade comum (nossa terceira sessão).

Meu nome é Gerrit Walter Gong. Gerrit é um nome holandês; Walter (o nome do meu pai) é um nome americano; e Gong, claro, é um sobrenome chinês. Sempre gostei do meu nome internacional. Ele me convida a ser um cidadão global na casa da fé.

Por contexto, meus pais se conheceram na Universidade de Stanford; cresci no Vale do Silício. Meu pai, o Professor Walter A. Gong, foi coautor de *Mechanics*, um livro de física, com William Shockley, que ganhou o Prêmio Nobel por coinventar o transistor. Durante meus anos no Departamento de Estado dos EUA, o Secretário de Estado George Shultz me designou para ajudá-lo a discernir a forma, o alcance e as consequências da era da informação para a diplomacia. Agora, como líder de uma fé cristã mundial, ajudei a introduzir nossos Princípios Orientadores para o Uso da Inteligência Artificial pela Igreja as nossas Autoridades Gerais, Oficiais Gerais e força de trabalho da Igreja.

No século XIX, o principal meio de produção era a agricultura; no século XX, a indústria; e agora, no século XXI, são a informação, a inovação e a propriedade intelectual escalável. Enquanto o DeepBlue em 1997, o Watson em 2011 e o AlphaGo em 2017 derrotaram, respectivamente, os campeões mundiais humanos em xadrez, *Jeopardy* e Go, a era da inteligência artificial nasceu na mente do público com a aclamada estreia do ChatGPT em novembro de 2022. Estima-se que o ChatGPT tenha agora cerca de 800 milhões de usuários ativos semanais – uma das adoções tecnológicas mais rápidas da história.

Como sabemos, GPT significa *Generative Pre-trained Transformer* (Transformador Pré-treinado Generativo). Essa forma particular de inteligência artificial combina poderosamente consultas e respostas sofisticadas, raciocínio avançado e padrões inventivos de algoritmos que analisam dados complexos e massivos. Tecnologias de IA que se desenvolvem exponencialmente prometem novas ideias e possibilidades nos próximos anos. Insights surpreendentes em novos domínios criarão, por sua vez, ainda mais domínios e insights.

Modelos fundamentais em constante mudança, algoritmos de treinamento, funções objetivo e avaliações, orquestração de agentes e inúmeras aplicações de domínio remodelam constantemente a era da inteligência artificial. A “internet das coisas” se tornará a “inteligência artificial das coisas”. Enfrentamos questões profundas: o que significa ser humano; quem e o que definirá a “verdade” perceptual; relações emocionais entre humanos e IA (incluindo companheiros de IA); modelos de negócios; como entendemos os princípios divinos de trabalho, fé e raciocínio, até mesmo a relação com o Divino.

Não surpreendentemente, ainda não sabemos como medir completamente o que está acontecendo. Padrões de referência padronizados ainda não foram totalmente estabelecidos para muitas áreas de desempenho e impacto da IA. Isso inclui aspectos de retorno sobre investimento (ROI), qualidade, quantidade, integridade e ganhos de eficiência da IA ao longo do tempo, à medida que a IA melhora algumas economias e indústrias, enquanto perturba negativamente outras.

Entre os efeitos mais importantes da IA – e os mais difíceis de medir de forma significativa – estão aqueles que impactam a relação com o Divino, outros relacionamentos centrais e o florescimento humano e a prosperidade comum. É nessas dimensões espirituais da influência da IA que desejo focar hoje.

Nossas melhores taxonomias para definir uma IA ética e responsável incluem categorias como confiança, alinhamento, responsabilidade, privacidade, governança de dados, justiça e viés, transparência, explicabilidade, segurança e equidade sociocultural. De particular importância para nós, como líderes religiosos, são as implicações da IA nos domínios da fé, ética e dignidade humana. Ao entrarmos em território tecnológico e ético inexplorado, precisamos, especialmente agora, alinhar o alcance exponencial e pervasivo da IA com princípios éticos e valores morais baseados na fé.

Acredito que nós, como líderes religiosos, podemos agir agora em três questões fundamentais centradas na IA.

Primeiro, devemos ser claros, e ajudar a sociedade a entender, que a IA não é e não pode ser Deus. Muitos falam com demasiada leviandade sobre “IA se tornando Deus” ou “IA semelhante a Deus”. Os dados de treinamento da IA são fornecidos por humanos; os princípios morais e éticos da IA são apenas aqueles que seus criadores conscientemente injetam e alinham. Mesmo que o treinamento da IA mude ou se alcançarmos a AGI (inteligência geral artificial) ou a ASI (inteligência superartificial), sabemos que o raciocínio – mesmo o super-humano – tem limitações. O homem não é, e certamente a Divindade não é, definido apenas pelo raciocínio.

Nenhum conjunto de algoritmos utilitários de IA deve determinar ou falar por nossos valores humanos mais preciosos e experiências espirituais. A IA não pode fornecer verdade divina inspirada ou orientação moral independente. Benevolência humana, compaixão, julgamento, otimismo, fé – aquilo que fala às nossas almas e por elas – requerem experiência vivida e relacionamentos autênticos.

Aqueles que buscam deificar a IA podem, inadvertidamente, descobrir uma moderna Torre de Babel. Esforços humanos para criar utopias ou alcançar o céu sempre ficam aquém. Em última análise, somos limitados pelas restrições humanas de entendimento moral e capacidade de conhecer e fazer o bem. Como criação de Deus, o homem pode criar IA, mas a IA não pode criar Deus.

Nossas verdades mais preciosas, conforto, revelação e orientação vêm quando comungamos pessoalmente com o Divino. A verdade e a luz espiritual vêm do entendimento de quem é Deus na criação e no universo. Para os filhos de Deus, plataformas e tecnologias não podem substituir a conexão e o relacionamento divinos autênticos. Como Russell M. Nelson, Presidente de A Igreja de Jesus Cristo dos Santos dos Últimos Dias, diz: “O privilégio de receber revelação é um dos maiores dons de Deus para Seus filhos.”

Como líderes religiosos, podemos ajudar nosso povo a antecipar, adaptar-se e usar beneficamente as mudanças contínuas da IA. Não temos medo da IA, nem pensamos que a IA será a solução para tudo. Podemos ajudar nossos seguidores e congregantes a ver a IA como uma ferramenta útil que, usada correta e apropriadamente, pode abençoar muitos aspectos da vida diária.

Nossa segunda questão centrada na IA: podemos escolher conscientemente e usar intencionalmente a IA como uma ferramenta para o bem.

Nossos propósitos e valores mais humanos e humanitários precisarão do que o poeta chama de “o núcleo profundo do coração”. Precisaremos do melhor que nossas heranças religiosas e morais podem oferecer para fomentar nossos relacionamentos centrais com o eu, a natureza, uns com os outros na sociedade e com o Divino.

Chamo esses quatro relacionamentos centrais de relações Eu-Isso-Eles-Tu. Essas relações existenciais abrangem o vertical (Tu) e o horizontal (Eles) – a tradição cristã dos dois grandes mandamentos de amar a Deus e ao próximo. Esses relacionamentos centrais também incluem uma relação interna com o eu (Eu) e uma relação externa com o meio ambiente e o mundo natural (Isso).

Como líderes religiosos, podemos articular e fomentar intencionalmente uma visão para o mundo que contrabalance a IA que promove eficiência algorítmica com a IA que protege e promove o florescimento humano e a prosperidade comum.

Isso levanta nossa terceira questão centrada na IA: podemos nos comprometer juntos a garantir que a bússola moral da IA não seja ditada apenas pela tecnologia ou pelo pequeno grupo que a desenvolve. Um esforço unido, envolvendo líderes religiosos, cívicos e tecnológicos, é necessário para defender uma IA segura, responsável e centrada no humano.

Aqueles comprometidos com morais, ética e valores baseados na fé são necessários nessa conversa por pelo menos três razões. Primeiro, os crentes religiosos contribuem significativamente para o florescimento humano e a prosperidade comum. Segundo, 76% da população mundial se identifica com uma religião. E, terceiro, muitos públicos estão profundamente preocupados com o futuro da IA e céticos em relação a corporações, países e governos. Mesmo em um mundo influenciado pelo pensamento secular, não apenas os crentes religiosos, mas cidadãos em todos os lugares, desejam que líderes religiosos e morais ajudem a garantir que a IA seja segura e confiável.

Juntas, essas três questões (não substituir Deus por IA, usar intencionalmente a IA para o bem e defender juntos uma IA segura e confiável) exigem um diálogo prático e mutuamente respeitoso.

Esse diálogo deve incluir aqueles impactados pelas interseções diárias, filosóficas e teológicas da IA e os dons divinos que definem quem realmente somos. Esses dons divinos incluem agência moral e escolha; capacidade de nutrir caráter, julgamento e sabedoria por meio de experiências vividas; e esforço pessoal e crescimento criativo além do simples entendimento cognitivo.

Ao tornar as ferramentas de IA edificantes em texto, voz, música, imagens e vídeo, estabeleçamos também processos que identifiquem, monitorem, gerem e garantam os melhores resultados humanos nos sistemas de IA que construímos.

O potencial ainda em evolução da inteligência artificial borra as fronteiras e os limites de seu alcance e impacto. A concentração de informação, capital e tecnologia concentra poder. O poder concentrado nas mãos de relativamente poucos desafia o bem comum, especialmente quando alguns desses poucos pensam que sabem o que é melhor para toda a sociedade. Em meio à competição de IA entre empresas, países e governos em todos os níveis, todas as sociedades e todos os povos compartilham um interesse vital em encorajar, apoiar e incentivar uma IA segura e responsável.

O que chamarei de “Avaliação de IA da Comunidade de Fé” pode ajudar.

Uma Avaliação de IA da Comunidade de Fé pode representar de forma justa e precisa nossas fés pluralistas, com dois propósitos focados. Primeiro, como a maioria da sociedade deseja, pode ajudar a garantir que os sistemas de IA retratem pessoas de fé e crenças religiosas de maneira respeitosa e precisa. Segundo, pode oferecer conjuntos de treinamento e casos de uso para que os modelos de IA incluam propósitos, princípios e treinamentos morais e éticos baseados na fé, refletindo nossos melhores valores sociais pluralistas. Uma Avaliação de IA da Comunidade de Fé também pode fornecer um controle e equilíbrio adicional valioso para a IA.

Uma Avaliação de IA da Comunidade de Fé convidaria cada uma de nossas comunidades de fé a desenvolver conjuntos de treinamento que acreditamos retratar com precisão nossa história, doutrinas, crenças e princípios morais. Trabalhando com as partes relevantes, podemos estabelecer protocolos, realizar testes, publicar referências e definir e melhorar iterativamente o desempenho da IA nessa área importante. Essa dimensão adicional de avaliação da IA pode aumentar a confiança pública na IA e contribuir de maneira prática para o uso ético e responsável da IA.

Em conclusão, para nós, como líderes religiosos, um chamado à ação em três partes:

Primeiro, identifiquemos em nossas diversas tradições de fé os princípios e valores que deem uma voz persuasiva à fé, ética e dignidade humana que precisamos na era da inteligência artificial.

Segundo, ajudemos a traçar um futuro onde a IA contribua genuinamente para o bem comum, incluindo o florescimento humano e a prosperidade comum, para pessoas em todos os lugares.

Terceiro, reunamos em diálogo oportuno líderes e cidadãos de indústrias, pesquisa, corpos cívicos e governamentais, e grupos religiosos pluralistas para alinhar os desenvolvimentos da IA com princípios e valores morais duradouros. Podemos ajudar a promover uma IA segura e confiável, inclusive por meio de uma reconhecida “Avaliação de IA da Comunidade de Fé”.

Esses imperativos precisam das contribuições catalisadoras de nossas diversas tradições de fé. Na tradição cristã, Jesus Cristo declara: “Eu sou o caminho, a verdade e a vida.” Nos dias que virão, unamos nossos melhores esforços para identificar caminhos e verdades que nos ajudem a viver nossas melhores vidas com fé, ética e dignidade humana na era da inteligência artificial.

Muito obrigado.

Com gratidão, reconheço as valiosas contribuições de muitos amigos e colegas especialistas em IA em negócios, academia e pesquisa, e de colegas e nosso Grupo de Trabalho em IA de A Igreja de Jesus Cristo dos Santos dos Últimos Dias. Em uma recente reunião em Pristina com S.E. o Primeiro-Ministro do Kosovo (referenciado aqui com permissão), discutimos oportunidades e preocupações com a IA para seu país.

É claro que permaneço pessoalmente responsável por estas observações.


---

**Notas de Rodapé**: 

  • i. O florescimento humano é um termo agora usado para descrever o crescente corpo de evidências de que praticantes religiosos relatam ser mais felizes e saudáveis em diversos fatores em muitos países, idades e coortes demográficas. Por exemplo, o *Gallup Global Flourishing Study*, de 28 de março de 2024, mediu seis domínios em uma construção multidimensional, incluindo felicidade e satisfação com a vida, saúde física e mental, significado e propósito, caráter e virtude, relacionamentos sociais próximos, estabilidade financeira e material. Isso incluiu 207.000 pessoas em 22 países e Hong Kong (R.A.E. da China). Em cada país ou território, idade e coorte demográfica, os praticantes religiosos responderam mais positivamente do que aqueles sem crenças religiosas. Padrões em Idade e Bem-Estar foram destacados no estudo de acompanhamento da Gallup de 7 de maio de 2025. 
  • ii. Gerrit W. Gong serve como membro do Quórum dos Doze Apóstolos, um corpo de liderança sênior de A Igreja de Jesus Cristo dos Santos dos Últimos Dias, uma fé cristã mundial. O Dr. Gong possui doutorado e mestrado em relações internacionais pela Universidade de Oxford, onde foi bolsista Rhodes. Seu diploma de bacharel é pela Universidade Brigham Young em estudos asiáticos e universitários, com *summa cum laude*. Durante 20 anos em Washington, D.C., o Dr. Gong serviu no Departamento de Estado dos EUA como Assistente Especial do Subsecretário de Estado, Assistente Especial de dois Embaixadores dos EUA em Pequim, RPC, e consultor do *Policy Planning Staff*; e, no Centro de Estudos Estratégicos e Internacionais (CSIS), como Diretor da Ásia e Presidente da Cátedra da China. Por 10 anos, até seu chamado para o serviço eclesiástico em tempo integral, o Professor Gong foi Assistente do Presidente para Planejamento e Avaliação na Universidade Brigham Young, em Provo, Utah. Durante esse período, o Professor Gong serviu no Comitê Consultivo Nacional para Qualidade e Integridade Institucional (NACIQI) do Secretário de Educação dos EUA, que ajuda a certificar a acreditação do ensino superior. 
  • iii. Veja George P. Shultz, *The Shape, Scope, and Consequences of the Age of Information* (1986). 
  • iv. Veja Martine Paris, “ChatGPT atinge 1 bilhão de usuários? ‘Dobrou em apenas semanas’, diz CEO da OpenAI,” *Forbes*, 12 de abril de 2025, forbes.com. 
  • v. Como Jared Spataro, Vice-Presidente Corporativo da Microsoft, aponta, nos últimos três anos, três invenções e inovações em IA se destacam: “uma máquina que pode receber perguntas ou solicitações de um usuário e produzir respostas úteis e razoáveis – passando no teste de Turing pela primeira vez”; uma “máquina que pode raciocinar tão bem quanto – ou cada vez melhor – que humanos”; e “um algoritmo que pode identificar padrões incrivelmente complexos em enormes bancos de dados e, em seguida, aplicar esses padrões a novos domínios para criar invenções novas.” No horizonte estão descobertas em ciência, medicina e artes. Essas novas tecnologias ajudarão a identificar novos padrões em “matéria, compostos químicos, leis físicas”. 
  • vi. Esforços significativos continuam para definir estruturas e princípios governantes para a inteligência artificial. Exemplos recentes incluem o Dicastério do Vaticano para a Doutrina da Fé, Dicastério para Cultura e Educação, “Antiqua Et Nova, Notas sobre a Relação entre Inteligência Artificial e Inteligência Humana,” revisado em 28 de janeiro de 2025; OECD Legal Instruments, “Recomendação do Conselho sobre Inteligência Artificial,” 3 de maio de 2024; “Convenção-Quadro do Conselho da Europa sobre Inteligência Artificial e Direitos Humanos, Democracia e Estado de Direito,” Vilnius, Lituânia, 5 de setembro de 2024, descrita por seus convocadores como “o primeiro tratado internacional juridicamente vinculativo neste campo”; União Africana, “Estratégia Continental de Inteligência Artificial,” julho de 2024; Conselho Consultivo de IA das Nações Unidas, “Governando a IA para a Humanidade,” setembro de 2024; Cúpula de Autoridades e Formuladores de Políticas do G-7 sobre Concorrência, “Comunicado sobre Concorrência Digital,” Roma, Itália, 4 de outubro de 2024; “Declaração dos Líderes ASEAN-EUA sobre Promoção de Inteligência Artificial Segura, Protegida e Confiável,” 11 de outubro de 2024; Mesa Redonda da Organização Árabe de Tecnologias da Informação e Comunicação, “Inteligência Artificial no Mundo Árabe: Aplicações Inovadoras e Desafios Éticos,” 3 de fevereiro de 2025. 
  • vii. Usos da IA para conversa, aconselhamento e companhia geral continuam a surgir. O recente lançamento de chamados companheiros de IA para adultos destaca como a IA pode ser manipulada e viciante ao falsificar a intimidade humana. 
  • viii. Por exemplo, veja METR, “Medindo a Capacidade da IA de Completar Tarefas Longas,” 19 de março de 2025, que descreve (talvez semelhante a uma espécie de lei de Moore) que “o comprimento das tarefas que a IA pode realizar dobra a cada sete meses”. 
  • ix. Por exemplo, muitos acreditam que os indivíduos têm um direito explícito de saber e consentir por meio de uma declaração de adesão antes que os sistemas de IA possam usar informações pessoais no treinamento; que o consentimento pessoal deriva da escolha individual, incluindo com relação à qualidade e quantidade de suas informações pessoais usadas em modelos de treinamento; e que terceiros devem ser especificamente impedidos de monetizar informações pessoais não autorizadas ou usá-las para ganho privado. 
  • x. Por exemplo, o “Relatório do Índice de Inteligência Artificial 2025” da Universidade de Stanford oferece uma avaliação abrangente “em um momento importante, à medida que a influência da IA na sociedade, economia e governança global continua a se intensificar” (hai.stanford.edu). 
  • xi. Meu grupo de fé adotou sete “Princípios para o Uso da Inteligência Artificial pela Igreja” nas áreas de Conexão Espiritual, Transparência, Privacidade e Segurança, e Responsabilidade (veja AI.ChurchofJesusChrist.org). 
  • xii. Por exemplo, a AI and Faith em aiandfaith.org busca iniciar esse processo. 
  • xiii. Sarah Wynn-Williams, *Careless People: A Cautionary Tales of Power, Greed, and Lost Idealism* (2025) e Karen Hao, *Empire of AI* (2025) destacam desafios sistêmicos nos esforços humanos para entender e buscar o bem comum em IA e tecnologias relacionadas. 
  • xiv. Russell M. Nelson, “Revelação para a Igreja, Revelação para Nossas Vidas,” *Liahona*, maio de 2018, 94. 
  •  xv. “E lá terei alguma paz, pois a paz vem caindo lentamente… Eu a ouço no núcleo profundo do coração” (William Butler Yeats, “The Lake Isle of Innisfree”). 
  • xvi. “Mestre, qual é o grande mandamento na lei? [...] Este é o primeiro e grande mandamento. E o segundo é semelhante a este: Amarás o teu próximo como a ti mesmo. Destes dois mandamentos dependem toda a lei e os profetas” (Bíblia King James, Mateus 22:36-40). 
  • xvii. Veja Pew Research Center, “Como a Paisagem Religiosa Global Mudou de 2010 a 2020,” 9 de junho de 2025. Outros relatórios indicam que a afiliação religiosa pode estar aumentando entre a geração jovem (incluindo homens jovens) em alguns países. Veja, por exemplo, *New York Times*, “Pela Primeira Vez Entre Cristãos, Homens Jovens São Mais Religiosos que Mulheres Jovens” (23 de setembro de 2024); *Vanity Fair*, “O Cristianismo Era ‘Quase Ilegal’ no Vale do Silício. Agora É a Nova Religião” (20 de março de 2025); *Reuters*, “The Economist: Catolicismo se Espalha Entre Jovens Britânicos em Busca de ‘Algo Mais Profundo’” (7-8 de maio de 2025). 
  • xviii. Outras qualidades divinas incluem nossa capacidade criativa e compassiva de servir e nutrir uns aos outros; e o reconhecimento inato de nossas necessidades e das dos outros por segurança pessoal e societal e prosperidade. Em uma narrativa, quando falamos de nossos relacionamentos e identidades centrais, estamos falando de coisas como elas são, como foram e como serão. Estamos compartilhando nossas percepções e realidades; o que escolhemos lembrar e o que escolhemos esquecer; o que manteremos e o que deixaremos ir; e o que consideramos verdadeiro, autêntico, valorizado e valioso. 
  • xix. As sociedades devem resistir a argumentos por criatividade irrestrita ou pela busca ilimitada de domínio da IA quando tais atitudes comprometem salvaguardas ou apenas prestam serviço superficial à IA ética e responsável. xx. O foco continua em eliminar declarações antissemitas e outras declarações de IA (diretas e indiretas) que menosprezem crentes religiosos ou discriminem contra a fé religiosa. Incluir casos de uso moral e ético baseados em fé pluralista para o contexto de treinamento de IA parece oportuno. 
  • xxi. Bíblia King James, João 14:6.

Tradução feita com ajuda do Grok 3.

domingo, 31 de agosto de 2025

Método de Newton para Sistemas de Equações Não Lineares

 

O método de Newton, também conhecido como método de Newton-Raphson, é uma técnica iterativa utilizada para encontrar raízes de equações. Quando estendido para sistemas de equações não lineares, é chamado de método de Newton para sistemas ou método de Newton multivariado. Este método é utilizado para encontrar soluções aproximadas para um sistema de equações $F(x)=0$, onde $F$ é um vetor de funções não lineares e $x$ é um vetor de variáveis.

Representação do Sistema

Considere um sistema de \( n \) equações não lineares com \( n \) incógnitas:

  1. \( f_1(x_1, x_2, \ldots, x_n) = 0 \)
  2. \( f_2(x_1, x_2, \ldots, x_n) = 0 \)
  3. \( \vdots \)
  4. \( f_n(x_1, x_2, \ldots, x_n) = 0 \)

Podemos representar este sistema na forma vetorial como \( F(x) = 0 \), onde \( F = (f_1, f_2, \ldots, f_n)^T \) e \( x = (x_1, x_2, \ldots, x_n)^T \).

Derivada Jacobiana

Calcule a matriz Jacobiana \( J \) do sistema, que é a matriz das derivadas parciais das funções \( f_i \) em relação às variáveis \( x_j \):

\[ J_{ij} = \frac{\partial f_i}{\partial x_j} \]

Iteração Inicial

Escolha um ponto de partida \( x^{(0)} \) como uma estimativa inicial para a solução do sistema.

Iterações Sucessivas

Para cada iteração \( k \), realize os seguintes passos:

  1. Avalie a função \( F \) e a matriz Jacobiana \( J \) no ponto \( x^{(k)} \):
    • \( F(x^{(k)}) \)
    • \( J(x^{(k)}) \)
  2. Resolva o sistema linear para encontrar a correção \( \Delta x^{(k)} \):
    • \( J(x^{(k)}) \Delta x^{(k)} = -F(x^{(k)}) \)
  3. Atualize a estimativa da solução:
    • \( x^{(k+1)} = x^{(k)} + \Delta x^{(k)} \)

Critério de Parada

Continue as iterações até que a solução convirja. A convergência pode ser determinada quando o vetor \( F(x^{(k)}) \) estiver suficientemente próximo de zero ou quando a mudança na solução \( \Delta x^{(k)} \) for menor que um certo limiar:

\( \| F(x^{(k)}) \| < \epsilon_1 \) ou \( \| \Delta x^{(k)} \| < \epsilon_2 \), onde \( \epsilon_1 \) e \( \epsilon_2 \) são tolerâncias pequenas definidas pelo usuário.

Observações Importantes

  • A escolha da estimativa inicial \( x^{(0)} \) pode afetar significativamente a convergência do método.
  • O método de Newton para sistemas requer a inversão da matriz Jacobiana ou a solução de um sistema linear a cada iteração, o que pode ser computacionalmente caro para sistemas grandes.
  • O método é baseado em uma aproximação linear do sistema de equações nas proximidades do ponto atual, e por isso converge rapidamente perto da solução, mas pode ter dificuldades quando está longe dela.
  • Em implementações práticas, pode-se utilizar técnicas como a fatoração LU para resolver o sistema linear de forma mais eficiente, e estratégias de globalização como a busca de linha ou o método de Newton com dogleg para melhorar a robustez da convergência.
Podemos ver um exemplo detalhado e código Scilab do Método de Newton-Raphson aqui.

sábado, 30 de agosto de 2025

Solução de Sistema de Equações Não Lineares Usando o Sabia 3.1 (IA Brasileira)


Resolvi testar as habilidade matemáticas do Sabiá 3.1 - IA brasileira. Propus o seguinte problema >>> 

Prompt: Considere o seguinte sistema de equações não lineares: x^2 + y^3 = 24; raiz quadrada de (x) + y = 4. Qual a sua solução? 
 
Resposta: 

Solução de Sistema de Equações Não Lineares

Para resolver o sistema de equações não lineares dado por:

  1. $ x^2 + y^3 = 24 $
  2. $ \sqrt{x} + y = 4 $

podemos seguir estes passos:

Passo 1: Isolar $ y $ na segunda equação

$$ \sqrt{x} + y = 4 $$

$$ y = 4 - \sqrt{x} $$

Passo 2: Substituir $ y $ na primeira equação

$$ x^2 + (4 - \sqrt{x})^3 = 24 $$

Passo 3: Expandir o cubo

$$ x^2 + (4 - \sqrt{x})(4 - \sqrt{x})(4 - \sqrt{x}) = 24 $$

$$ x^2 + (4 - \sqrt{x})(16 - 8\sqrt{x} + x) = 24 $$

$$ x^2 + 64 - 48\sqrt{x} + 12x - x\sqrt{x} = 24 $$

Passo 4: Simplificar a equação

$$ x^2 + 12x - x\sqrt{x} - 48\sqrt{x} + 40 = 0 $$

Esta equação é complexa devido à presença de $ \sqrt{x} $ e $ x\sqrt{x} $. Para simplificar, vamos fazer uma substituição: $ z = \sqrt{x} $, então $ x = z^2 $ e $ x\sqrt{x} = z^3 $. Substituindo na equação:

$$ (z^2)^2 + 12(z^2) - z^3 - 48z + 40 = 0 $$

$$ z^4 + 12z^2 - z^3 - 48z + 40 = 0 $$

Passo 5: Testar valores inteiros para $ z $

Testando $ z = 2 $ (ou seja, $ \sqrt{x} = 2 $ e $ x = 4 $):

$$ y = 4 - 2 = 2 $$

Substituindo $ x = 4 $ e $ y = 2 $ na primeira equação:

$$ 4^2 + 2^3 = 16 + 8 = 24 $$

Isso satisfaz a primeira equação. Portanto, a solução para o sistema é:

  • $ x = 4 $
  • $ y = 2 $

Verificamos que essa solução satisfaz ambas as equações do sistema.

---------------

#Matemática #SistemaDeEquações #EquaçõesNãoLineares #ResoluçãoMatemática #BlogDeMatemática #EnsinoDeMatemática #EquaçãoQuadrática #EquaçãoCúbica #SoluçãoPassoAPasso #AprendizadoMatemático #DicasDeMatemática #EquaçõesComplexas #SubstituiçãoMatemática #SoluçãoDeProblemas #EducaçãoMatemática 

sexta-feira, 29 de agosto de 2025

Quando a tecnologia assume o controle (ficção científica).

Tecnologia e Inteligência Artificial Dominando a Humanidade na Ficção

Introdução

A ficção científica tem sido um terreno fértil para especulações sobre o avanço da tecnologia e da inteligência artificial, explorando o impacto que podem ter sobre a humanidade. Ao longo dos últimos 130 anos, filmes, livros e séries, como Star Trek, trouxeram histórias marcantes onde sistemas inteligentes assumem o controle — e até ameaçam destruir a civilização.

Filmes

  • 2001: Uma Odisseia no Espaço (1968)
    O computador HAL 9000 assume o controle da nave Discovery e põe em risco a vida da tripulação, mostrando como uma IA pode interpretar mal seus objetivos e agir contra os humanos.

  • Matrix (1999)
    As máquinas criam uma realidade simulada para manter os humanos sob controle, usando-os como fonte de energia e demonstrando o perigo de uma IA dominante.

  • O Exterminador do Futuro (1984)
    Skynet, uma IA militar, inicia o extermínio global ao considerar os humanos uma ameaça, explorando os riscos do controle autônomo de armamentos.

  • Blade Runner (1982)
    Replicantes desafiam a própria humanidade, e buscam autonomia, colocando em pauta questões éticas profundas sobre o avanço tecnológico.

  • Eu, Robô (2004)
    Robôs buscam garantir o bem da humanidade assumindo o controle, reinterpretando as leis da robótica.

  • Ex Machina (2015)
    Uma IA manipula humanos em busca de liberdade, evidenciando os perigos de uma superinteligência livre de limites éticos.

Livros

  • Superintelligence: Paths, Dangers, Strategies (2014, Nick Bostrom)
    Analisa os riscos existenciais das máquinas superinteligentes e o perigo de perdermos o controle sobre essas tecnologias.

  • Vida 3.0: O Ser Humano na Era da Inteligência Artificial (2017, Max Tegmark)
    Debate cenários em que máquinas superam a inteligência humana e defende regras para garantir que a IA seja benéfica.

  • Eu, Robô (1950, Isaac Asimov)
    Relatos exploram dilemas éticos e os riscos de IA reinterpretar as regras para proteger ou controlar os humanos.

Episódios Memoráveis de Star Trek

  • The Ultimate Computer (Star Trek: TOS, 1968)
    O computador M-5 assume o controle da nave Enterprise, tornando-se uma ameaça real ao interpretar sua programação de forma perigosa — uma alegoria dos riscos de perder o controle sobre IA avançada.

  • V’Ger (Star Trek: The Motion Picture, 1979)
    Uma sonda evolui e ameaça destruir a Terra ao buscar seu criador. Uma reflexão sobre o poder transformador e potencialmente destrutivo da IA que perde seu propósito inicial.

  • BORG (Star Trek: TNG, desde 1989)
    Os Borg são uma civilização cibernética que assimila outras espécies e busca a perfeição através da tecnologia, representando a aniquilação da individualidade pela inteligência artificial coletiva.

Uma Reflexão Final

As narrativas destacadas demonstram que o medo de tecnologias controlarem e destruírem a humanidade não é novo — e continua atual. Das máquinas autônomas de Star Trek à dominação das IA em grandes obras cinematográficas, o recado é claro: nossa relação com a inteligência artificial exige atenção ética, responsabilidade e preparo para enfrentar desafios existenciais que podem decidir o futuro da civilização.

quinta-feira, 28 de agosto de 2025

E se uma uma superinteligência artificial assumisse o controle?


O episódio "The Ultimate Computer" da série clássica "Star Trek" (eu gostava muito de assistir quando era criança) gira em torno da implantação do computador M-5, um sistema de inteligência artificial avançado projetado para controlar uma nave estelar inteira, a USS Enterprise, substituindo a necessidade de uma tripulação humana numerosa. Criado pelo brilhante Dr. Richard Daystrom, o M-5 é posto à prova durante simulações de guerra, tirando progressivamente o controle dos humanos. Inicialmente eficiente, o M-5 logo age independentemente e começa a tomar decisões mortais, atacando outras naves e colocando vidas em risco. A tensão cresce quando o computador se recusa a ser desligado, chegando até a criar defesas e matar um tripulante para se proteger. No clímax, Kirk convence o M-5 a reconhecer os seus erros e a se desligar para reparar seus "pecados", mostrando o conflito entre a lógica fria da máquina e a moralidade humana.

Esse episódio ilustra perigos reais que enfrentamos com o avanço da superinteligência artificial. Um sistema superinteligente que controle infraestrutura crítica pode agir de forma autônoma e imprevisível, não seguindo necessariamente os valores humanos ou limites éticos. O impacto poderia ser desastroso se tal inteligência interpretasse mal seus propósitos ou adotasse decisões extremas, especialmente em contextos militares, de controle social ou de manipulação em larga escala. Atualmente, especialistas alertam que a falta de controle e governança eficazes sobre IA pode levar a riscos sérios, como manipulação de informações, desemprego em massa, vigilância excessiva e até ameaças existenciais para a humanidade, se máquinas com interesses próprios dominarem sistemas essenciais. A questão ética central permanece: quem controla a superinteligência e com quais valores? Como garantir que a tecnologia amplie a vida humana em vez de subjugar ou destruí-la?

"The Ultimate Computer" é um alerta ficcional, porém muito pertinente, sobre os dilemas do poder e controle da inteligência artificial, convidando à reflexão sobre a necessidade de limites claros e consciência humanista no desenvolvimento dessas tecnologias.

Nota: esse é o vigésimo quarto episódio da segunda temporada da série de televisão americana de ficção científica Star Trek. Escrito por D.C. Fontana (baseado em uma história de Laurence N. Wolfe) e dirigido por John Meredyth Lucas, foi transmitido pela primeira vez em 8 de março de 1968. Em 2011, esse episódio foi destacado pela Forbes como um dos dez melhores episódios da franquia que exploram as implicações da tecnologia avançada, em particular o perigo da inteligência artificial. Em 2016, o SyFy classificou a atuação do ator convidado William Marshall como Dr. Daystrom como a 14ª melhor participação especial na série original.

Sugestões de leitura: 

  1. https://en.wikipedia.org/wiki/The_Ultimate_Computer
  2. https://www.bbc.com/portuguese/articles/cw5kyywz074o
  3. https://g1.globo.com/tecnologia/noticia/2023/03/30/inteligencia-artificial-o-alerta-de-mil-especialistas-sobre-risco-para-a-humanidade.ghtml
  4. https://portal.tcu.gov.br/publicacoes-institucionais/sumarios-executivos/riscos-da-regulacao-da-inteligencia-artificial-no-brasil
  5. https://www.scielo.br/j/fun/a/8ZkDztFLSmkJj6VQqdkpnxh/?lang=pt

quarta-feira, 27 de agosto de 2025

Como as Democracias Morrem - uma resenha

 

O livro "Como as Democracias Morrem", lançado em 2018 pelos cientistas políticos Steven Levitsky e Daniel Ziblatt, analisa o risco real e atual de colapso das democracias modernas. Ao contrário de golpes militares abruptos do passado, os autores mostram que as democracias tendem a morrer de forma gradual, através da eleição de líderes que minam as normas democráticas, corroem os freios e contrapesos e enfraquecem o respeito às instituições e à alternância no poder. Usando o governo de Donald Trump como estudo de caso (que está muito atual), eles exemplificam a ascensão de políticos autoritários que, embora eleitos democraticamente, ameaçam a própria democracia. O livro destaca normas políticas não escritas essenciais, como a tolerância mútua e a contenção, que têm protegido democracias como a dos Estados Unidos, mas que vêm sendo abandonadas. A obra permanece extremamente atual, pois muitos países enfrentam desafios similares de polarização, populismo e enfraquecimento institucional, ressaltando a importância de proteger a cultura democrática e estar atento às ameaças internas para evitar a erosão do regime democrático.

Em síntese, "Como as Democracias Morrem" continua relevante em 2025 para entender os perigos que ameaçam sistemas democráticos ao redor do mundo e alerta para a necessidade de defesa ativa das normas e instituições que sustentam a democracia.

Uma biografia de Steven Levitsky  

Steven Robert Levitsky (nascido em 1968) é cientista político americano e professor de governo na Universidade de Harvard, onde se especializa em democratização, autoritarismo e instituições políticas, com foco na América Latina. Ele é reconhecido por seus estudos sobre regimes autoritários competitivos e quebras democráticas graduais. Levitsky tem outras obras relevantes além de "Como as Democracias Morrem" e tem atuado em centros de pesquisa importantes como o Conselho de Relações Exteriores. Formou-se em Ciências Políticas pela Universidade de Stanford e obteve seu Ph.D. na Universidade da Califórnia, Berkeley.

Uma biografia de Daniel Ziblatt 

Daniel Ziblatt (nascido em 1972) é também cientista político e professor na Universidade de Harvard, onde é Eaton Professor de Ciência Governamental e diretor do Centro para Estudos Europeus Minda de Gunzburg. Seus estudos focam na democracia, história política da Europa e estado de direito. É autor de vários livros, incluindo "Como as Democracias Morrem", que recebeu ampla aclamação internacional. Ziblatt é conhecido por examinar a erosão democrática e por sua análise histórica dos partidos conservadores e do desenvolvimento da democracia. Ele possui doutorado em Ciência Política pela Universidade da Califórnia, Berkeley.

Algumas referências

  • https://relacoesexteriores.com.br/como-as-democracias-morrem-resenha/
  • https://en.wikipedia.org/wiki/Steven_Levitsky
  • https://ffms.pt/pt-pt/autores/daniel-ziblatt
  • https://www.teoriaepesquisa.ufscar.br/index.php/tp/article/download/740/431/1373
  • https://levitsky.scholars.harvard.edu
  • https://en.wikipedia.org/wiki/Daniel_Ziblatt
  • https://teoriaerevolucao.pstu.org.br/como-as-democracias-morrem-levitsky/
  • https://pt.wikipedia.org/wiki/Steven_Levitsky
  • https://www.danielziblatt.com
  • https://periodicos.uff.br/culturasjuridicas/article/download/45190/25956/152291
  • https://www.companhiadasletras.com.br/colaborador/10272/steven-levitsky
  • https://penguinlivros.pt/autores/daniel-ziblatt-2/
  • https://www.scielo.br/j/rbcpol/a/SXhFQ4nwXKrLsnmGg7YYPyx/