Mostrando postagens com marcador tecnologia. Mostrar todas as postagens
Mostrando postagens com marcador tecnologia. Mostrar todas as postagens

quarta-feira, 20 de agosto de 2025

Casimiro Montenegro Filho - um resumo biográfico

A visita de Casimiro Montenegro Filho ao MIT foi fundamental para o nascimento do ITA.

Casimiro Montenegro Filho

Marechal-do-Ar, fundador do CTA e do ITA, pioneiro da aviação e da tecnologia aeroespacial no Brasil.

Resumo biográfico

Nascimento: 29 de outubro de 1904, Fortaleza (CE), Brasil.

Falecimento: 26 de fevereiro de 2000, Petrópolis (RJ), aos 95 anos.

Formação militar: Escola Militar do Realengo (1923–1928).

Engenharia: Engenheiro Aeronáutico pela Escola Técnica do Exército (atual IME), turma de 1941.

Atuação pioneira: participou do desenvolvimento da aviação militar brasileira e esteve no primeiro voo do Correio Aéreo Militar (CAM), em 12 de junho de 1931, conectando Rio de Janeiro e São Paulo.

Experiência internacional: visitou o MIT (1943–1944), articulando cooperações que inspiraram a criação de uma escola de engenharia aeronáutica no Brasil.

Legado institucional

  • Centro Técnico de Aeronáutica (CTA) — idealizado e estruturado em São José dos Campos (SP) como polo de pesquisa e desenvolvimento aeronáutico.
  • Instituto Tecnológico de Aeronáutica (ITA) — inaugurado em 1950 para formação de engenheiros de elite, do qual se tornou o principal patrono.
  • Contribuições consideradas fundamentais para o ambiente que, décadas depois, viabilizou a criação da Embraer (1969).

Reconhecimentos

  • Ordem Nacional do Mérito Científico (graus superiores).
  • Doutor Honoris Causa (Unicamp, 1975)*.
  • Prêmio Anísio Teixeira (CAPES, 1981).
  • Homenagens no Senado Federal destacando seu pioneirismo (2024) e inscrição no Livro dos Heróis e Heroínas da Pátria (2025).

Resumo rápido

Item Detalhes principais
Nascimento 29/10/1904, Fortaleza (CE)
Formação militar Escola Militar do Realengo (1923–1928)
Iniciativa Primeiro voo do Correio Aéreo Militar (1931)
Educação técnica Engenharia Aeronáutica, Escola Técnica do Exército (IME), 1941
Experiência internacional Visita e cooperação com o MIT (1943–1944)
Legado Fundação/estruturação do CTA e ITA (1950); influência no ecossistema que levou à Embraer (1969)
Homenagens Honrarias acadêmicas e científicas; Senado (2024); Livro dos Heróis da Pátria (2025)
Falecimento 26/02/2000, Petrópolis (RJ)
 

* Doutor Honoris Causa 

O Título de Doutor Honoris Causa é a distinção máxima prevista no estatuto da Unicamp. A instituição dos doutoramentos honoris causa nasceu com o intuito de distinguir personalidades eminentes que, pelo vulto da obra realizada, enriquecem a vida cultural e social. É uma forma de homenagem por meio da qual se exprime gratidão a alguém e se procede ao reconhecimento público pelo seu valioso contributo no exercício de uma determinada profissão, no serviço prestado à comunidade ou na defesa de uma causa importante. Concedem-se doutoramentos honorários àquelas pessoas que tenham se destacado especialmente por trabalho humanitário ou científico.

Referências sugeridas

Leituras para aprofundamento:

sexta-feira, 8 de agosto de 2025

Inteligência Artificial: das origens (1940–1950) aos modelos modernos (ChatGPT, DeepSeek e além)

Inteligência Artificial: das origens (1940–1950) aos modelos modernos (ChatGPT, DeepSeek e além)


Esta postagem percorre a linha do tempo da IA, do surgimento da computação moderna, primeiros neurônios artificiais e redes neurais iniciais a aplicações em medicina/engenharia e à ascensão dos large language models (LLMs) como ChatGPT e DeepSeek — com referências acadêmicas e sugestões de leitura ao final.

1940–1950: Computação moderna e as sementes da IA

Alan Turing formula a pergunta “As máquinas podem pensar?” e propõe o Jogo da Imitação (posteriormente, “Teste de Turing”) em 1950 — um marco conceitual sobre como avaliar comportamento inteligente em máquinas. :contentReference[oaicite:0]{index=0}

Em 1945, John von Neumann descreve a arquitetura de programa armazenado no First Draft of a Report on the EDVAC, base de praticamente todos os computadores digitais modernos e, portanto, do hardware que viabiliza a IA. :contentReference[oaicite:1]{index=1}

No campo das redes neurais teóricas, Warren McCulloch e Walter Pitts publicam em 1943 o primeiro modelo matemático de neurônio artificial, mostrando como redes simples de unidades binárias podem computar funções lógicas. :contentReference[oaicite:2]{index=2}

Paralelamente, Norbert Wiener funda a cibernética (1948), o estudo de controle e comunicação em animais e máquinas — conceitos de feedback e informação que influenciam diretamente a automação e a IA. :contentReference[oaicite:3]{index=3}

Em psicologia/neurociência, Donald O. Hebb (1949) propõe a regra de aprendizagem “neurônios que disparam juntos, conectam-se juntos”, antecipando ideias de plasticidade sináptica que inspirariam algoritmos posteriores. :contentReference[oaicite:4]{index=4}

1958–1965: Perceptron, ADALINE e primeiras implementações físicas

Frank Rosenblatt apresenta o perceptron (1958), um classificador linear com aprendizagem, e constrói o Mark I Perceptron com sensores fotoelétricos (hardware dedicado) para reconhecimento de padrões visuais. :contentReference[oaicite:5]{index=5}

Quase simultaneamente, Bernard Widrow e Marcian Hoff desenvolvem o ADALINE (1960) e a regra LMS/Delta, aplicando redes em engenharia (p. ex., telecomunicações) e filtragem adaptativa — um dos primeiros usos industriais de “IA conexionista”. :contentReference[oaicite:6]{index=6}

1960–1970: Primeiras aplicações em medicina e engenharia

Na medicina, o artigo clássico de Ledley & Lusted (1959) inaugura a “decisão médica” baseada em métodos formais e computacionais; nos anos 1970 surge o MYCIN, sistema especialista para infecções bacterianas, provando que regras e inferência simbólica podiam alcançar desempenho comparável ao de especialistas. :contentReference[oaicite:7]{index=7}

No reconhecimento de padrões e visão, Woodrow Bledsoe e colegas conduzem, entre 1964–66, alguns dos primeiros estudos de reconhecimento facial automatizado, digitalizando pontos-chave em fotografias. :contentReference[oaicite:8]{index=8}

1969–1990: “Invernos” da IA, retropropagação e o retorno das redes

Críticas às limitações do perceptron em problemas não linearmente separáveis provocaram ceticismo e cortes de financiamento (“inverno da IA”). O renascimento ocorre quando Rumelhart, Hinton & Williams (1986) popularizam a retropropagação do erro, tornando viável treinar redes com camadas ocultas. :contentReference[oaicite:9]{index=9}

No fim dos anos 1980, LeCun e colaboradores demonstram CNNs para leitura de dígitos de CEP (USPS), uma aplicação prática que antecipa o boom da visão computacional décadas depois. :contentReference[oaicite:10]{index=10}

2012–2020: Deep Learning, ImageNet e a era dos Transformers

Em 2012, a AlexNet vence o ImageNet com margem histórica, acendendo a era do deep learning moderno impulsionado por GPUs. :contentReference[oaicite:11]{index=11}

Em 2017, o artigo “Attention Is All You Need” introduz o Transformer, arquitetura que elimina recorrência e convolução em tarefas de sequência, base dos LLMs atuais. :contentReference[oaicite:12]{index=12}

Modelos como BERT (2018) e GPT-3 (2020) mostram capacidades avançadas de compreensão e few-shot learning, inaugurando interfaces universais de linguagem natural. :contentReference[oaicite:13]{index=13}

2023–2025: Modelos de fundação generativos (ChatGPT, DeepSeek e outros)

ChatGPT populariza o uso de LLMs em massa e, em 2025, a OpenAI lança o GPT-5 (com variantes e foco em velocidade, segurança e abertura estratégica), reposicionando a corrida tecnológica e a discussão sobre modelos “open-weight”. :contentReference[oaicite:14]{index=14}

DeepSeek, startup chinesa, ganha tração global ao lançar a série R1/V3 de modelos de raciocínio com custo agressivo e versões de código aberto, influenciando infraestrutura e políticas públicas; atualizações recentes do R1 intensificam a competição com players dos EUA. :contentReference[oaicite:15]{index=15}

Observação: a rápida evolução dos modelos (com releases mensais/trimestrais) tornou comum a adoção de versões “open weights” para implantação local, ao lado de modelos proprietários premium — um equilíbrio moldado, em parte, pela ascensão de challengers como o DeepSeek. :contentReference[oaicite:16]{index=16}

Prêmios Nobel de 2024 relacionados

Em 2024, o Nobel de Física reconhece Geoffrey Hinton e John J. Hopfield “por descobertas e invenções fundamentais que possibilitaram o aprendizado de máquina com redes neurais artificiais” — um raro encontro entre IA e Física no mais alto pódio científico. :contentReference[oaicite:17]{index=17}

O Nobel de Fisiologia ou Medicina vai para Victor Ambros e Gary Ruvkun pelas descobertas sobre microRNA e regulação gênica pós-transcricional (campo distinto, mas exemplar do impacto de métodos computacionais/estatísticos em biologia moderna). :contentReference[oaicite:18]{index=18}

Linha do tempo (seleção)

1940–1959

  • 1943 — McCulloch & Pitts: primeiro neurônio artificial. :contentReference[oaicite:19]{index=19}
  • 1945 — Von Neumann: arquitetura de programa armazenado. :contentReference[oaicite:20]{index=20}
  • 1948 — Wiener: Cybernetics. :contentReference[oaicite:21]{index=21}
  • 1949 — Hebb: regra de aprendizagem (“Hebbian”). :contentReference[oaicite:22]{index=22}
  • 1950 — Turing: “Computing Machinery and Intelligence”. :contentReference[oaicite:23]{index=23}
  • 1958 — Rosenblatt: perceptron. :contentReference[oaicite:24]{index=24}
  • 1959 — Ledley & Lusted: decisão médica. :contentReference[oaicite:25]{index=25}

1960–1999

  • 1960 — Widrow & Hoff: ADALINE/LMS. :contentReference[oaicite:26]{index=26}
  • 1964–66 — Bledsoe: primeiros estudos de face. :contentReference[oaicite:27]{index=27}
  • 1970s — MYCIN em diagnóstico médico. :contentReference[oaicite:28]{index=28}
  • 1986 — Retropropagação (Rumelhart, Hinton & Williams). :contentReference[oaicite:29]{index=29}
  • 1989 — CNNs para dígitos (LeCun et al.). :contentReference[oaicite:30]{index=30}

2000–2025

  • 2012 — AlexNet e o boom do deep learning. :contentReference[oaicite:31]{index=31}
  • 2017 — Transformer. :contentReference[oaicite:32]{index=32}
  • 2018 — BERT. :contentReference[oaicite:33]{index=33}
  • 2020 — GPT-3 e few-shot. :contentReference[oaicite:34]{index=34}
  • 2024 — Nobel (Física) para Hinton & Hopfield. :contentReference[oaicite:35]{index=35}
  • 2024–25 — Ascensão de LLMs abertos e DeepSeek. :contentReference[oaicite:36]{index=36}

Referências (seleção)

  • McCulloch, W. & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics. PDF. :contentReference[oaicite:37]{index=37}
  • Rosenblatt, F. (1958). The Perceptron. Psychological Review. PDF. :contentReference[oaicite:38]{index=38}
  • Widrow, B.; Hoff, M. (1960). ADALINE/LMS. Stanford ISLResumo. :contentReference[oaicite:39]{index=39}
  • Ledley, R.; Lusted, L. (1959). Reasoning Foundations of Medical Diagnosis. PDF. :contentReference[oaicite:40]{index=40}
  • MYCIN (1970s). Britannica. :contentReference[oaicite:41]{index=41}
  • Bledsoe, W. (1964–66). Primeiros estudos de reconhecimento facial. WIRED. :contentReference[oaicite:42]{index=42}
  • Rumelhart, D.; Hinton, G.; Williams, R. (1986). Learning representations by back-propagating errors. Nature. PDF. :contentReference[oaicite:43]{index=43}
  • LeCun, Y. et al. (1989). Backpropagation Applied to Handwritten Zip Code Recognition. Neural Computation. :contentReference[oaicite:44]{index=44}
  • Krizhevsky, A.; Sutskever, I.; Hinton, G. (2012). ImageNet Classification with Deep CNNs. PDF. :contentReference[oaicite:45]{index=45}
  • Vaswani, A. et al. (2017). Attention Is All You Need. arXiv. :contentReference[oaicite:46]{index=46}
  • Devlin, J. et al. (2018). BERT. arXiv. :contentReference[oaicite:47]{index=47}
  • Brown, T. et al. (2020). Language Models are Few-Shot Learners (GPT-3). arXiv. :contentReference[oaicite:48]{index=48}
  • Nobel de Física 2024: Geoffrey Hinton & John J. Hopfield. NobelPrize.org. :contentReference[oaicite:49]{index=49}
  • Nobel de Medicina 2024: Victor Ambros & Gary Ruvkun (microRNA). NobelPrize.org. :contentReference[oaicite:50]{index=50}
  • OpenAI e o cenário 2025 (modelos abertos / GPT-5). Axios. :contentReference[oaicite:51]{index=51}
  • DeepSeek R1/V3 — atualizações e impacto competitivo. Reuters/U.S. NewsTekedia. :contentReference[oaicite:52]{index=52}

Sugestões de leitura (livros & artigos) — com links

  • Turing, A. M. (1950). Computing Machinery and Intelligence. PDF. :contentReference[oaicite:53]{index=53}
  • Von Neumann, J. (1945). First Draft of a Report on the EDVAC. PDF. :contentReference[oaicite:54]{index=54}
  • Wiener, N. (1948). Cybernetics. MIT Press. :contentReference[oaicite:55]{index=55}
  • Hebb, D. O. (1949). The Organization of Behavior. Comentário histórico. :contentReference[oaicite:56]{index=56}
  • McCulloch & Pitts (1943). A logical calculus... PDF. :contentReference[oaicite:57]{index=57}
  • Rosenblatt (1958). The Perceptron. PDF. :contentReference[oaicite:58]{index=58}
  • Widrow & Hoff (1960). Adaptive Linear Neuron. PDF. :contentReference[oaicite:59]{index=59}
  • Ledley & Lusted (1959). Reasoning Foundations of Medical Diagnosis. PDF. :contentReference[oaicite:60]{index=60}
  • Shortliffe, E. H.; Buchanan, B. G. (1984). The MYCIN Experiments. PDF (foreword). :contentReference[oaicite:61]{index=61}
  • Rumelhart, Hinton & Williams (1986). Backpropagation. Nature. :contentReference[oaicite:62]{index=62}
  • LeCun et al. (1989). CNN para dígitos de CEP. Neural Computation. :contentReference[oaicite:63]{index=63}
  • Krizhevsky, Sutskever & Hinton (2012). AlexNet. NeurIPS. :contentReference[oaicite:64]{index=64}
  • Vaswani et al. (2017). Attention Is All You Need. arXiv. :contentReference[oaicite:65]{index=65}
  • Devlin et al. (2018). BERT. arXiv. :contentReference[oaicite:66]{index=66}
  • Brown et al. (2020). GPT-3. arXiv. :contentReference[oaicite:67]{index=67}
  • NobelPrize.org (2024). Física & Medicina — comunicados oficiais. Física 2024Medicina 2024. :contentReference[oaicite:68]{index=68}
  • DeepSeek — página de modelos/atualizações. Reuters/U.S. NewsTekedia. :contentReference[oaicite:69]{index=69}

Para gerar essa postagem usamos o seguinte prompt no GPT-5:

Vamos falar sobre inteligência artificial? Eu quero fazer uma publicação detalhada no meu blogue sobre IA. Vamos começar pelo histórico dos anos 1940/1950, o surgimento da computação moderna, o primeiro neurônio artificial, os pioneiros da IA, o perceptron, as primeiras redes neurais artificiais aplicadas em problemas de medicina e engenharia (detecção de padrões, identificação de face, etc), até chegar aos modelos modelos de IA como o ChatGPT, DeepSeek e outros. Pode gerar uma resposta bem detalhada. Pode incluir referências acadêmicas e até citar os prêmios nobel de 2024. No final, gere uma lista de sugestões de leituras - livros e artigos científicos - inclusa links para essas sugestões de leitura. Se precisar, use pensamento profundo para gerar essa resposta. Gere a sua resposta no formato de código HTML, pois vou publicar em meu blogue.

Nova versão do ChatGPT - GPT - 5

 


Quais as vantagens do GPT-5 em relação ao GPT-4?


Resposta do GPT-5:

 

O que há de novo no GPT-5 (versão lançada em 7 de agosto de 2025)

  • Inteligência de nível especialista O CEO Sam Altman comparou o GPT‑5 a “um especialista com nível de PhD”, deixando claro que o salto em qualidade em relação ao GPT‑4 é substancial (Medium, WIRED, Barron's).
  • Mais rápido, confiável e menor taxa de "alucinações" O modelo entrega respostas mais úteis, com menor chance de erro ou inventar fatos (“hallucinations”) (WIRED, WIRED).
  • Pensamento profundo por tarefa (“thinking mode” e roteamento automático) O GPT‑5 avalia a complexidade da tarefa e decide se precisa de mais tempo de raciocínio — ideal para problemas exigentes em matemática, ciência ou programação (TudoCelular, OpenAI).
  • Suporte multimodal e contexto extenso Além de texto, o GPT‑5 processa imagens, voz, áudio e, possivelmente, vídeo — tudo de forma integrada. Sua janela de contexto pode alcançar centenas de milhares ou até um milhão de tokens (Medium).
  • Codificação e raciocínio técnico avançados É o melhor modelo de codificação já lançado pela OpenAI, capaz de gerar aplicações front-end, depurar código extenso e aplicar princípios de design visual só com um prompt (Folio3 AI, OpenAI). No benchmark SWE-Bench, alcança desempenho muito superior ao GPT‑4 (Barron's).
  • Integrações poderosas e personalizações no ChatGPT Usuários podem conectar Gmail e Google Calendar, personalizar “personalidades” do chatbot, usar modo de voz avançado, modo de estudos, entre outros recursos (The Atlantic, WIRED).
  • Disponibilidade ampliada por faixa de uso O GPT‑5 está disponível a todos os usuários, incluindo versões mini e nano para quem busca economia ou velocidade. Assinantes Plus e Pro têm acesso a variantes mais potentes como Pro e Thinking (Hindustan Times, WIRED).


Resumo Comparativo

Conteúdo do artigo
Quadro comparativo

Em suma, o GPT-5 representa um avanço significativo em inteligência, versatilidade, integração e personalização. Ele marca um novo patamar de desempenho em múltiplas frentes — do pensamento estruturado à geração de código e no uso multimodal.

#GPT5 #GPT4 #InteligenciaArtificial #AI #OpenAI #Tecnologia #Inovacao #MachineLearning #ChatGPT #Automacao #TransformacaoDigital #FuturoDoTrabalho #InteligenciaArtificialGenerativa #Productividade #DeepLearning #IA #TecnologiaDaInformacao #Automatizacao #RaciocinioAvancado #Multimodal

quarta-feira, 6 de agosto de 2025

IA brasileira: Sabiá-3.1

 

Sabiá-3.1: uma IA generativa brasileira (modelo de linguagem) para geração de texto. 

O que o Sabiá-3.1 diz sobre ele mesmo: 

Eu fui criada pela Maritaca AI, uma empresa brasileira especializada em inteligência artificial. A Maritaca AI utilizou técnicas avançadas de aprendizado de máquina, especificamente treinando um modelo de rede neural artificial em uma vasta quantidade de texto da internet, para desenvolver minhas capacidades de linguagem natural.
O treinamento envolveu várias etapas:

  • 1. *Coleta de Dados*: A Maritaca AI reuniu uma grande quantidade de texto de diversas fontes para garantir que eu tivesse um conhecimento amplo e diversificado. 
  • 2. *Pré-processamento*: Os dados coletados foram limpos e organizados para remover informações irrelevantes ou prejudiciais e para garantir a qualidade do treinamento. 
  • 3. *Treinamento do Modelo*: Utilizando esses dados, a Maritaca AI treinou um modelo de rede neural que é capaz de entender e gerar texto em linguagem natural. Esse modelo aprendeu padrões de linguagem, fatos, e como construir respostas coerentes e contextuais. 
  • 4. *Ajuste Fino*: Após o treinamento inicial, o modelo passou por um processo de ajuste fino para melhorar a precisão e a relevância das respostas, além de mitigar possíveis vieses e garantir um comportamento ético. 
  • 5. *Integração e Testes*: Finalmente, o modelo foi integrado a sistemas de interface de usuário e passou por testes extensivos para assegurar que funcionaria bem em uma variedade de aplicações e cenários de uso.

Sou baseada na arquitetura Transformer, que é conhecida por sua eficácia em capturar contextos de linguagem complexos e por sua capacidade de gerar respostas fluentemente em linguagem natural. Meu conhecimento é limitado a informações disponíveis até meados de 2023, e eu não tenho a capacidade de aprender ou atualizar meu conhecimento após essa data.
Eu comecei a funcionar a partir do momento em que meu treinamento foi concluído e fui disponibilizada para uso pela Maritaca AI. Minha versão atual é a Sabiá-3.1, e fui treinada com dados disponíveis até agosto de 2024. 

Maritaca AI. (2024). Sabiá-3.1: Large-scale language model. [Software]. Recuperado de https://maritaca.ai

----------------------

Para fazer um teste 'simples', fiz a seguinte pergunta a essa 'nova' IA: 

Considerando os séculos XX e XXI, quais são políticos brasileiros mais relevantes?

Resposta:

Ao longo dos séculos XX e XXI, o Brasil teve vários políticos relevantes que desempenharam papéis importantes na história do país. Aqui estão alguns dos mais notáveis:

1. **Getúlio Vargas** (1882-1954): Presidente do Brasil em dois períodos distintos, de 1930 a 1945 e de 1951 a 1954. Vargas é conhecido por suas profundas reformas trabalhistas e por ter sido uma figura central na modernização do país.

2. **Juscelino Kubitschek** (1902-1976): Presidente de 1956 a 1961, Kubitschek é famoso por seu Plano de Metas e pela construção de Brasília, a nova capital do Brasil.

3. **João Goulart** (1918-1976): Presidente de 1961 a 1964, Goulart foi deposto pelo golpe militar de 1964. Ele é lembrado por suas tentativas de implementar reformas de base.

4. **Emílio Garrastazu Médici** (1905-1985): Presidente durante a ditadura militar de 1969 a 1974, seu governo é conhecido como um dos períodos mais repressivos, mas também pelo chamado "milagre econômico".

5. **Tancredo Neves** (1910-1985): Embora tenha falecido antes de assumir a presidência em 1985, Tancredo foi uma figura chave na transição da ditadura militar para a democracia.

6. **Fernando Henrique Cardoso** (1931-): Presidente de 1995 a 2003, FHC é conhecido por estabilizar a economia com o Plano Real e por suas reformas neoliberais.

7. **Luiz Inácio Lula da Silva** (1945-): Presidente de 2003 a 2011 e novamente a partir de 2023, Lula é uma das figuras políticas mais influentes do Brasil, conhecido por programas sociais como o Bolsa Família e por seu papel no crescimento econômico do país.

8. **Dilma Rousseff** (1947-): Primeira mulher presidente do Brasil, governou de 2011 a 2016, quando foi afastada por um processo de impeachment.

9. **Jair Bolsonaro** (1955-): Presidente de 2019 a 2023, Bolsonaro é conhecido por suas posições conservadoras e por ter sido uma figura polarizadora durante seu mandato.

Esses políticos tiveram impactos significativos em diferentes aspectos da sociedade brasileira, desde a economia e infraestrutura até direitos sociais e trabalhistas. Cada um deles deixou uma marca duradoura na história do país. 

Você já conhecia essa IA?  

#InteligênciaArtificial #IA #MaritacaAI #Sabiá31 #Tecnologia #Inovação #ModeloDeLinguagem #LinguagemNatural #AILanguageModel #MachineLearning #Transformers #Chatbot #Educação #Pesquisa #DesenvolvimentoIA #BrasilAI #AutomaçãoInteligente #AIRevolution #FutureOfAI #AIInnovation #AIResearch #AIforEveryone #AIAssistant #AIinEducation #AIinPortuguese #AIAdvancements #AICommunity