Dia Mundial da Paz de 2024: Papa pede diálogo aberto sobre impacto da inteligência artificial
01/01/2024

Dia Mundial da Paz de 2024: Papa pede diálogo aberto sobre impacto da inteligência artificial

Dia Mundial da Paz de 2024: Papa pede diálogo aberto sobre impacto da inteligência artificial

MENSAGEM DO SANTO PADRE
FRANCISCO
PARA A CELEBRAÇÃO DO
DIA MUNDIAL DA PAZ

1º DE JANEIRO DE 2024

 
INTELIGÊNCIA ARTIFICIAL E PAZ

No início do novo ano, tempo de graça concedido pelo Senhor a cada um de nós, quero dirigir-me ao Povo de Deus, às nações, aos Chefes de Estado e de Governo, aos Representantes das diversas religiões e da sociedade civil, a todos os homens e mulheres do nosso tempo para lhes expressar os meus votos de paz.

1. O progresso da ciência e da tecnologia como caminho para a paz

A Sagrada Escritura atesta que Deus deu aos homens o seu Espírito a fim de terem «sabedoria, inteligência e capacidade para toda a espécie de trabalho» (Ex 35, 31). A inteligência é expressão da dignidade que nos foi dada pelo Criador, que nos fez à sua imagem e semelhança (cf. Gn 1, 26) e nos tornou capazes, através da liberdade e do conhecimento, de responder ao seu amor. Esta qualidade fundamentalmente relacional da inteligência humana manifesta-se de modo particular na ciência e na tecnologia, que são produtos extraordinários do seu potencial criativo.

Na Constituição pastoral Gaudium et spes, o Concílio Vaticano II reafirmou esta verdade, declarando que «sempre o homem procurou, com o seu trabalho e engenho, desenvolver mais a própria vida». [1] Quando os seres humanos, «recorrendo à técnica», se esforçam por que a terra «se torne habitação digna para toda a humanidade», [2] agem segundo o desígnio divino e cooperam com a vontade que Deus tem de levar à perfeição a criação e difundir a paz entre os povos. Assim o próprio progresso da ciência e da técnica – na medida em que contribui para uma melhor organização da sociedade humana, para o aumento da liberdade e da comunhão fraterna – leva ao aperfeiçoamento do homem e à transformação do mundo.

Justamente nos alegramos e sentimos reconhecidos pelas extraordinárias conquistas da ciência e da tecnologia, graças às quais se pôs remédio a inúmeros males que afligiam a vida humana e causavam grandes sofrimentos. Ao mesmo tempo, os progressos técnico-científicos, que permitem exercer um controle – até agora inédito – sobre a realidade, colocam nas mãos do homem um vasto leque de possibilidades, algumas das quais podem constituir um risco para a sobrevivência humana e um perigo para a casa comum. [3]

Deste modo os progressos notáveis das novas tecnologias da informação, sobretudo na esfera digital, apresentam oportunidades entusiasmantes mas também graves riscos, com sérias implicações na prossecução da justiça e da harmonia entre os povos. Por isso torna-se necessário interrogar-nos sobre algumas questões urgentes: quais serão as consequências, a médio e longo prazo, das novas tecnologias digitais? E que impacto terão elas sobre a vida dos indivíduos e da sociedade, sobre a estabilidade e a paz?

2. O futuro da inteligência artificial, por entre promessas e riscos

Os progressos da informática e o desenvolvimento das tecnologias digitais, nas últimas décadas, começaram já a produzir profundas transformações na sociedade global e nas suas dinâmicas. Os novos instrumentos digitais estão a mudar a fisionomia das comunicações, da administração pública, da instrução, do consumo, dos intercâmbios pessoais e de inúmeros outros aspetos da vida diária.

Além disso as tecnologias que se servem duma multiplicidade de algoritmos podem, dos vestígios digitais deixados na internet, extrair dados que permitem controlar os hábitos mentais e relacionais das pessoas para fins comerciais ou políticos, muitas vezes sem o seu conhecimento, limitando o exercício consciente da sua liberdade de escolha. De facto, num espaço como a web caraterizado por uma sobrecarga de informações, pode-se compor o fluxo de dados segundo critérios de seleção nem sempre enxergados pelo utente.

Devemos recordar-nos de que a pesquisa científica e as inovações tecnológicas não estão desencarnadas da realidade nem são «neutrais», [4] mas estão sujeitas às influências culturais. Sendo atividades plenamente humanas, os rumos que tomam refletem opções condicionadas pelos valores pessoais, sociais e culturais de cada época. E o mesmo se diga dos resultados que alcançam: enquanto fruto de abordagens especificamente humanas do mundo envolvente, têm sempre uma dimensão ética, intimamente ligada às decisões de quem projeta a experimentação e orienta a produção para objetivos particulares.

Isto aplica-se também às formas de inteligência artificial. Desta, até ao momento, não existe uma definição unívoca no mundo da ciência e da tecnologia. A própria designação, que já entrou na linguagem comum, abrange uma variedade de ciências, teorias e técnicas destinadas a fazer com que as máquinas, no seu funcionamento, reproduzam ou imitem as capacidades cognitivas dos seres humanos. Falar de «formas de inteligência», no plural, pode ajudar sobretudo a assinalar o fosso intransponível existente entre estes sistemas, por mais surpreendentes e poderosos que sejam, e a pessoa humana: em última análise, aqueles são «fragmentários» já que têm possibilidades de imitar ou reproduzir apenas algumas funções da inteligência humana. Além disso o uso do plural destaca que tais dispositivos, muito diferentes entre si, devem ser sempre considerados como «sistemas sociotécnicos». Com efeito o seu impacto, independentemente da tecnologia de base, depende não só da projetação, mas também dos objetivos e interesses de quem os possui e de quem os desenvolve, bem como das situações em que são utilizados.

Por conseguinte a inteligência artificial deve ser entendida como uma galáxia de realidades diversas e não podemos presumir a priori que o seu desenvolvimento traga um contributo benéfico para o futuro da humanidade e para a paz entre os povos. O resultado positivo só será possível se nos demonstrarmos capazes de agir de maneira responsável e respeitar valores humanos fundamentais como «a inclusão, a transparência, a segurança, a equidade, a privacidade e a fiabilidade». [5]

E não é suficiente presumir, por parte de quem projeta algoritmos e tecnologias digitais, um empenho por agir de modo ético e responsável. É preciso reforçar ou, se necessário, instituir organismos encarregados de examinar as questões éticas emergentes e tutelar os direitos de quantos utilizam formas de inteligência artificial ou são influenciados por ela. [6]

Assim, a imensa expansão da tecnologia deve ser acompanhada por uma adequada formação da responsabilidade pelo seu desenvolvimento. A liberdade e a convivência pacífica ficam ameaçadas, quando os seres humanos cedem à tentação do egoísmo, do interesse próprio, da ânsia de lucro e da sede de poder. Por isso temos o dever de alargar o olhar e orientar a pesquisa técnico-científica para a prossecução da paz e do bem comum, ao serviço do desenvolvimento integral do homem e da comunidade. [7]

A dignidade intrínseca de cada pessoa e a fraternidade que nos une como membros da única família humana devem estar na base do desenvolvimento de novas tecnologias e servir como critérios indiscutíveis para as avaliar antes da sua utilização, para que o progresso digital possa verificar-se no respeito pela justiça e contribuir para a causa da paz. Os avanços tecnológicos que não conduzem a uma melhoria da qualidade de vida da humanidade inteira, antes pelo contrário agravam as desigualdades e os conflitos, nunca poderão ser considerados um verdadeiro progresso. [8]

A inteligência artificial tornar-se-á cada vez mais importante. Os desafios que coloca não são apenas de ordem técnica, mas também antropológica, educacional, social e política. Deixa esperar, por exemplo, poupança de esforços, produção mais eficiente, transportes mais fáceis e mercados mais dinâmicos, bem como uma revolução nos processos de recolha, organização e verificação de dados. Precisamos de estar conscientes das rápidas transformações em curso e geri-las de forma a salvaguardar os direitos humanos fundamentais, respeitando as instituições e as leis que promovem o progresso humano integral. A inteligência artificial deveria estar ao serviço dum melhor potencial humano e das nossas mais altas aspirações, e não em competição com eles.

3. A tecnologia do futuro: máquinas que aprendem sozinhas

Nas suas múltiplas formas, a inteligência artificial, baseada em técnicas de aprendizagem automática (machine learning), embora ainda numa fase pioneira, já está a introduzir mudanças notáveis no tecido das sociedades, exercendo uma influência profunda nas culturas, nos comportamentos sociais e na construção da paz.

Desenvolvimentos como a aprendizagem automática (machine learning) ou a aprendizagem profunda (deep learning) levantam questões que transcendem os âmbitos da tecnologia e da engenharia e têm a ver com uma compreensão intimamente ligada ao significado da vida humana, aos processos basilares do conhecimento e à capacidade que tem a mente de alcançar a verdade.

A capacidade de alguns dispositivos produzirem textos sintática e semanticamente coerentes, por exemplo, não é garantia de fiabilidade. Diz-se que podem «alucinar», isto é, gerar afirmações que à primeira vista parecem plausíveis, mas na realidade são infundadas ou preconceituosas. Isto coloca um sério problema quando a inteligência artificial é utilizada em campanhas de desinformação que espalham notícias falsas e levam a uma desconfiança crescente relativamente aos meios de comunicação. A confidencialidade, a posse dos dados e a propriedade intelectual são outros âmbitos em que as tecnologias em questão comportam graves riscos, aos quais se vêm juntar outras consequências negativas ligadas a um uso indevido, como a discriminação, a interferência nos processos eleitorais, a formação duma sociedade que vigia e controla as pessoas, a exclusão digital e a exacerbação dum individualismo cada vez mais desligado da coletividade. Todos estes fatores correm o risco de alimentar os conflitos e obstaculizar a paz.

4. O sentido do limite, no paradigma tecnocrático

O nosso mundo é demasiado vasto, variado e complexo para ser completamente conhecido e classificado. A mente humana nunca poderá esgotar a sua riqueza, nem sequer com a ajuda dos algoritmos mais avançados. De facto, estes não oferecem previsões garantidas do futuro, mas apenas aproximações estatísticas. Nem tudo pode ser previsto, nem tudo pode ser calculado; no fim de contas, «a realidade é superior à ideia» [9] e, por mais prodigiosa que seja a nossa capacidade de calcular, haverá sempre um resíduo inacessível que escapa a qualquer tentativa de quantificação.

Além disso, a grande quantidade de dados analisados pelas inteligências artificiais não é, por si só, garantia de imparcialidade. Quando os algoritmos extrapolam informações, correm sempre o risco de as distorcer, replicando as injustiças e os preconceitos dos ambientes onde têm origem. Quanto mais rápidos e complexos eles se tornam, mais difícil é compreender por que produziram um determinado resultado.

As máquinas inteligentes podem desempenhar as tarefas que lhes são atribuídas com uma eficiência cada vez maior, mas a finalidade e o significado das suas operações continuarão a ser determinados ou capacitados por seres humanos com o seu próprio universo de valores. O risco é que os critérios subjacentes a certas escolhas se tornem menos claros, que a responsabilidade de decisão seja ocultada e que os produtores possam subtrair-se à obrigação de agir para o bem da comunidade. Em certo sentido, isto é favorecido pelo sistema tecnocrático, que alia a economia à tecnologia e privilegia o critério da eficiência, tendendo a ignorar tudo o que não esteja ligado aos seus interesses imediatos. [10]

Isto deve fazer-nos refletir sobre um aspeto transcurado frequentemente na atual mentalidade tecnocrática e eficientista, mas decisivo para o desenvolvimento pessoal e social: o «sentido do limite». Com efeito o ser humano, mortal por definição, pensando em ultrapassar todo o limite mediante a técnica, corre o risco, na obsessão de querer controlar tudo, de perder o controle sobre si mesmo; na busca duma liberdade absoluta, de cair na espiral duma ditadura tecnológica. Reconhecer e aceitar o próprio limite de criatura é condição indispensável para que o homem alcance ou, melhor, acolha a plenitude como uma dádiva; ao passo que, no contexto ideológico dum paradigma tecnocrático animado por uma prometeica presunção de autossuficiência, as desigualdades poderiam crescer sem medida, e o conhecimento e a riqueza acumular-se nas mãos de poucos, com graves riscos para as sociedades democráticas e uma coexistência pacífica. [11]

5. Temas quentes para a ética

No futuro, a fiabilidade de quem solicita um mútuo, a idoneidade dum indivíduo para determinado emprego, a possibilidade de reincidência dum condenado ou o direito a receber asilo político ou assistência social poderão ser determinados por sistemas de inteligência artificial. A falta de níveis diversificados de mediação que tais sistemas introduzem está particularmente exposta a formas de preconceito e discriminação: os erros do sistema podem multiplicar-se facilmente, gerando não só injustiças em casos individuais, mas também, por efeito dominó, verdadeiras formas de desigualdade social.

Além disso, por vezes, as formas de inteligência artificial parecem capazes de influenciar as decisões dos indivíduos através de opções predeterminadas associadas a estímulos e dissuasões, ou então através de sistemas de regulação das opções pessoais baseados na organização das informações. Estas formas de manipulação ou controle social requerem atenção e vigilância cuidadosas, implicando uma clara responsabilidade legal por parte dos produtores, de quem os contrata e das autoridades governamentais.

O ato de se confiar a processos automáticos que dispõem os indivíduos por categorias, por exemplo, através dum uso invasivo da vigilância ou da adoção de sistemas de crédito social, poderia ter repercussões profundas também no tecido civil, estabelecendo classificações inadequadas entre os cidadãos. E estes processos artificiais de classificação poderiam levar também a conflitos de poder, envolvendo não apenas destinatários virtuais, mas também pessoas de carne e osso. O respeito fundamental pela dignidade humana requer a rejeição de que a unicidade da pessoa seja identificada com um conjunto de dados. Não se deve permitir que os algoritmos determinem o modo como entendemos os direitos humanos, ponham de lado os valores essenciais da compaixão, da misericórdia e do perdão, ou eliminem a possibilidade de um indivíduo mudar e deixar para trás o passado.

Neste contexto, não podemos deixar de considerar o impacto das novas tecnologias no âmbito laboral: trabalhos, que outrora eram prerrogativa exclusiva da mão-de-obra humana, acabam rapidamente absorvidos pelas aplicações industriais da inteligência artificial. Também neste caso, há substancialmente o risco duma vantagem desproporcionada para poucos à custa do empobrecimento de muitos.  A Comunidade Internacional, ao ver como tais formas de tecnologia penetram cada vez mais profundamente nos locais de trabalho, deveria considerar como alta prioridade o respeito pela dignidade dos trabalhadores e a importância do emprego para o bem-estar económico das pessoas, das famílias e das sociedades, a estabilidade dos empregos e a equidade dos salários.

6. Transformaremos as espadas em relhas de arado?

Nestes dias, contemplando o mundo que nos rodeia, não se pode ignorar as graves questões éticas relacionadas com o setor dos armamentos. A possibilidade de efetuar operações militares através de sistemas de controle remoto levou a uma perceção menor da devastação por eles causada e da responsabilidade da sua utilização, contribuindo para uma abordagem ainda mais fria e destacada da imensa tragédia da guerra. A pesquisa sobre as tecnologias emergentes no setor dos chamados «sistemas de armas letais autónomas», incluindo a utilização bélica da inteligência artificial, é um grave motivo de preocupação ética. Os sistemas de armas autónomos nunca poderão ser sujeitos moralmente responsáveis: a exclusiva capacidade humana de julgamento moral e de decisão ética é mais do que um conjunto complexo de algoritmos, e tal capacidade não pode ser reduzida à programação duma máquina que, por mais «inteligente» que seja, permanece sempre uma máquina. Por esta razão, é imperioso garantir uma supervisão humana adequada, significativa e coerente dos sistemas de armas.

Também não podemos ignorar a possibilidade de armas sofisticadas caírem em mãos erradas, facilitando, por exemplo, ataques terroristas ou intervenções visando desestabilizar instituições legítimas de Governo. Em resumo, o mundo não precisa realmente que as novas tecnologias contribuam para o iníquo desenvolvimento do mercado e do comércio das armas, promovendo a loucura da guerra. Ao fazê-lo, não só a inteligência, mas também o próprio coração do homem, correrá o risco de se tornar cada vez mais «artificial». As aplicações técnicas mais avançadas não devem ser utilizadas para facilitar a resolução violenta dos conflitos, mas para pavimentar os caminhos da paz.

Numa ótica mais positiva, se a inteligência artificial fosse utilizada para promover o desenvolvimento humano integral, poderia introduzir inovações importantes na agricultura, na instrução e na cultura, uma melhoria do nível de vida de inteiras nações e povos, o crescimento da fraternidade humana e da amizade social. Em última análise, a forma como a utilizamos para incluir os últimos, isto é, os irmãos e irmãs mais frágeis e necessitados, é a medida reveladora da nossa humanidade.

Um olhar humano e o desejo dum futuro melhor para o nosso mundo levam à necessidade dum diálogo interdisciplinar voltado para um desenvolvimento ético dos algoritmos – a algor-etica -, em que sejam os valores a orientar os percursos das novas tecnologias. [12] As questões éticas deveriam ser tidas em consideração desde o início da pesquisa, bem como nas fases de experimentação, projetação, produção, distribuição e comercialização. Esta é a abordagem da ética da projetação, na qual as instituições educativas e os responsáveis pelo processo de decisão têm um papel essencial a desempenhar.

7. Desafios para a educação

O desenvolvimento duma tecnologia que respeite e sirva a dignidade humana tem implicações claras para as instituições educativas e para o mundo da cultura. Ao multiplicar as possibilidades de comunicação, as tecnologias digitais permitiram encontrar-se de novas formas. Todavia continua a ser necessária uma reflexão contínua sobre o tipo de relações para onde nos estão encaminhando. Os jovens estão a crescer em ambientes culturais impregnados de tecnologia, o que não pode deixar de pôr em causa os métodos de ensino e formação.

A educação para o uso de formas de inteligência artificial deveria visar sobretudo a promoção do pensamento crítico. É necessário que os utentes das várias idades, mas principalmente os jovens, desenvolvam uma capacidade de discernimento no uso de dados e conteúdos recolhidos na web ou produzidos por sistemas de inteligência artificial. As escolas, as universidades e as sociedades científicas são chamadas a ajudar os estudantes e profissionais a assumir os aspetos sociais e éticos do progresso e da utilização da tecnologia.

A formação no uso dos novos instrumentos de comunicação deveria ter em conta não só a desinformação, as notícias falsas, mas também a recrudescência preocupante de «medos ancestrais (...) que souberam esconder-se e revigorar-se por detrás das novas tecnologias». [13] Infelizmente, encontramo-nos mais uma vez a combater «a tentação de fazer uma cultura dos muros, de erguer os muros (…), para impedir este encontro com outras culturas, com outras pessoas» [14] e o desenvolvimento duma coexistência pacífica e fraterna.

8. Desafios para o desenvolvimento do direito internacional

O alcance global da inteligência artificial deixa claro que, juntamente com a responsabilidade dos Estados soberanos de regular a sua utilização internamente, as Organizações Internacionais podem desempenhar um papel decisivo na obtenção de acordos multilaterais e na coordenação da sua aplicação e implementação. [15] A este respeito, exorto a Comunidade das Nações a trabalhar unida para adotar um tratado internacional vinculativo, que regule o desenvolvimento e o uso da inteligência artificial nas suas variadas formas. Naturalmente o objetivo da regulamentação não deveria ser apenas a prevenção de más aplicações, mas também o incentivo às boas aplicações, estimulando abordagens novas e criativas e facilitando iniciativas pessoais e coletivas. [16]

Em última análise, na busca de modelos normativos que possam fornecer uma orientação ética aos criadores de tecnologias digitais, é indispensável identificar os valores humanos que deveriam estar na base dos esforços das sociedades para formular, adotar e aplicar os quadros legislativos necessários. O trabalho de elaboração de diretrizes éticas para a produção de formas de inteligência artificial não pode prescindir da consideração de questões mais profundas relativas ao significado da existência humana, à proteção dos direitos humanos fundamentais, à busca da justiça e da paz. Este processo de discernimento ético e jurídico pode revelar-se preciosa ocasião para uma reflexão compartilhada sobre o papel que a tecnologia deveria ter na nossa vida individual e comunitária e sobre a forma como a sua utilização possa contribuir para a criação dum mundo mais equitativo e humano. Por este motivo, nos debates sobre a regulamentação da inteligência artificial, dever-se-ia ter em conta as vozes de todas as partes interessadas, incluindo os pobres, os marginalizados e outros que muitas vezes permanecem ignorados nos processos de decisão globais.

* * *

Espero que esta reflexão encoraje a fazer com que os progressos no desenvolvimento de formas de inteligência artificial sirvam, em última análise, a causa da fraternidade humana e da paz. Não é responsabilidade de poucos, mas da família humana inteira. De facto, a paz é fruto de relações que reconhecem e acolhem o outro na sua dignidade inalienável, e de cooperação e compromisso na busca do desenvolvimento integral de todas as pessoas e de todos os povos.

No início do novo ano, a minha oração é que o rápido desenvolvimento de formas de inteligência artificial não aumente as já demasiadas desigualdades e injustiças presentes no mundo, mas contribua para pôr fim às guerras e conflitos e para aliviar muitas formas de sofrimento que afligem a família humana. Possam os fiéis cristãos, os crentes das várias religiões e os homens e mulheres de boa vontade colaborar harmoniosamente para aproveitar as oportunidades e enfrentar os desafios colocados pela revolução digital, e entregar às gerações futuras um mundo mais solidário, justo e pacífico.

 

Vaticano, 8 de dezembro de 2023.

Francisco

 

Fonte: Vatican News

Mais Recentes

3º Domingo do Advento: O domingo da alegria

O 3º Domingo do Advento, conhecido como Domingo Gaudete (Alegria, em latim), é um momento especial de celebração e esperança durante a preparação para o Natal. Ele convida os cristãos a se alegrarem profundamente pela proximidade da chegada de Jesus, o Salvador. A liturgia deste dia utiliza a cor rosa, simbolizando a alegria e o regozijo que permeiam a expectativa do nascimento de Cristo. As leituras bíblicas reforçam esse sentimento. O apóstolo Paulo nos exorta: “Alegrai-vos sempre no Senhor! Repito: alegrai-vos!” (Filipenses 4,4-5), enquanto o profeta Isaías anuncia: “Ele vem para salvar vocês” (Isaías 35,4). No contexto da espiritualidade salesiana, o 3º Domingo do Advento também é um chamado para irradiar alegria cristã, especialmente entre os jovens. A vivência dessa alegria, segundo Dom Bosco, é um sinal de um coração que vive em comunhão com Deus, comprometido em transformar o mundo com amor e esperança. Que neste domingo, todos possam experimentar a verdadeira alegria que nasce da fé e do encontro com Cristo.   Comunicação da Rede Salesiana Brasil

Formação das neo-Ecônomas Inspetoriais 2025

De 6 a 24 de novembro de 2025, 33 Filhas de Maria Auxiliadora provenientes de todo o mundo reuniram-se em Roma, na Casa Geral, para o Encontro de formação organizado pelo Âmbito da Administração do Instituto das FMA. As participantes eram 23 neo- ecônomas, 3 ecônomas presentes para atualização, 3 FMA que iniciarão o seu serviço em 2026 e 4 FMA que colaboram com o Economato inspetorial. A diversidade de procedência, cultura e experiência foi para todas uma grande riqueza, que favoreceu o espírito de pertença e as tornou conscientes do precioso e delicado serviço confiado a cada uma dentro de um Instituto que responde a uma necessidade educativa em nível mundial. O tema escolhido foi: “A economia do serviço, para uma economia que gera vida”.Para quem desempenha o serviço de ecônoma, é importante ter presente que, no centro da economia, deve estar a pessoa e que a administração deve ser vivida e realizada como ato de amor e fidelidade à missão. A correta administração dos bens deve favorecer a vida da comunidade, mas não pode deixar de levar em conta a vida e o futuro da missão. Durante todo o encontro, o trecho evangélico das bodas de Caná – “Fazei tudo o que Ele vos disser” (Jo 2,5) – serviu de guia. Como Maria, também a ecônoma deve ser uma mulher atenta às necessidades, plenamente inserida no presente e solícita, “uma mulher cuidadosa, que se ocupa da felicidade dos outros; uma mulher que vive uma escuta profunda e responsável para colher as situações de necessidade quando falta o ‘vinho’, isto é, a alegria do amor, e levar Cristo, não com palavras, mas no serviço, na proximidade, com compaixão e ternura” (Cf. Papa Francisco, Encontro com as capitulares – 2021). As ecônomas foram então convidadas a viver todo o encontro com a atitude de: escutar a necessidade, acolher o milagre, agir com confiança para gerar vida. Os dias formativos foram coordenados pela Conselheira Geral da Administração, Ir. Ena Veralís Bolaños, com as colaboradoras do Âmbito, e foram sustentados pelas intervenções da Dra. Francesca Romana Busnelli – psicóloga do trabalho, docente da Pontifícia Faculdade de Ciências da Educação Auxilium, professora efetiva de Pedagogia Geral e diretora do Instituto de Metodologia Pedagógica da Universidade Pontifícia Salesiana – que soube animar o grupo, favorecendo a todas as participantes no conhecimento recíproco, em se sentir livres para se expressar, em experimentar a importância de viver relações serenas e construtivas e em colher a continuidade dos conteúdos recebidos dos diversos relatores. Particularmente interessante e significativa foi a intervenção da Superiora Geral, Madre Chiara Cazzuola, que falou sobre Sinodalidade e serviço:“Escolhi este tema porque uma ecônoma inspetorial é uma mulher consagrada, antes de tudo uma FMA feliz, que vive um serviço delicado e importante na comunidade inspetorial”, explicou. “Falo de serviço, não de poder porque, ao contrário da lógica do mundo em que a economia governa, impõe e programa crises, mudanças, tendências, para nós FMA economia significa sábia gestão e valorização dos recursos humanos e materiais e/ou financeiros a serviço do Carisma. E nunca é uma gestão solitária, mas sempre compartilhada e sinodal”. Durante os dias, também intervieram Ir. Grazia Loparco – historiadora do Instituto e docente na Faculdade Auxilium – e Pe. Pascual Chávez, SDB, Reitor-Mor emérito da Congregação Salesiana, que ajudaram a fazer uma leitura carismática dos temas tratados. O aprofundamento dos artigos das Constituições, proposto por Ir. Ena, assim como a precisa e motivada apresentação dos procedimentos utilizados pelo Instituto, feita pela Secretária Geral, Ir. Maria Luísa Nicastro, a reflexão sobre o Direito Canônico, feita por Ir. Kasińska Katarzina, e as intervenções das irmãs do Âmbito, favoreceram a reflexão sobre os critérios e fundamentos do serviço das ecônomas, fazendo crescer no senso de pertença. Não faltaram também algumas visitas formativas, como a do Borgo Laudato Si’, em Castel Gandolfo, onde as participantes puderam visitar os Jardins Pontifícios e conhecer o belo projeto de acolhida, sustentabilidade e economia circular, sonhado pelo Papa Francisco e inaugurado pelo Papa Leão XIV; e a visita ao Empório da Solidariedade da Cáritas de Roma, onde foram apresentados o modelo de distribuição solidária e os instrumentos adotados para enfrentar a pobreza alimentar numa grande cidade como Roma. Entre as experiências carismático-eclesiais, Ir. Francisca Caggiano, vice-Postuladora das Causas dos Santos, apresentou a exposição dedicada a Santa Maria Troncatti, inaugurada em outubro por ocasião de sua canonização. Seguiram-se a visita ao Museu Dom Bosco, em Roma, na sede central da Congregação Salesiana, a participação na Audiência com o Papa Leão XIV e a celebração do Jubileu, com a passagem pela Porta Santa na Basílica de São Pedro. Preciosas também foram as “boas noites” oferecidas por algumas conselheiras em sede. No final das jornadas formativas, realizou-se a avaliação, durante a qual as participantes puderam agradecer-se reciprocamente, partilhar suas reflexões e reconhecer todo o bem recebido durante as semanas de formação. O encontro concluiu-se com um jantar especial inspirado na festa das Bodas de Caná. Um agradecimento particular foi dirigido também à Ir. Carla Castellino, Diretora da Comunidade Maria Auxiliadora da Casa Geral, e a todas as irmãs, pela fina acolhida recebida. Para muitas das ecônomas presentes, o encontro prosseguiu com o itinerário carismático – de 25 a 29 de novembro – pelos lugares das origens, com visita ao Museo Museu das Expedições Missionárias de Gênova, inaugurado em 12 de novembro, a Mornese (AL), Nizza Monferrato (AT) e Turim. Em cada etapa houve oportunidade de encontrar-se com pessoas e/ou  novas experiências de formação, sustentabilidade e Instituto. A visita aos lugares salesianos e os encontros foram vividos como um novo chamado a renovar o Carisma e a missão, seguindo os passos de Dom Bosco e Madre Mazzarello. As mensagens expressas pelas participantes durante a avaliação e após o seu retorno à inspetoria, confirmam a positividade do encontro: Obrigada (…) a todas vós que amais não só os números, mas também a nossa comunidade e a nossa missão. O encontro de formação foi realmente uma experiência das bodas de Caná, onde Jesus encheu nossas talhas de vinho. Os relatores demonstraram grande empenho e preparação cuidadosa. O curso me ofereceu: conhecimentos preciosos, experiências práticas de gestão, motivação ao estudo, alegria, esperança e reconhecimento. Foram dias ricos de profundidade, formação, oração, experiências, crescimento e uma partilha fraterna que enriqueceu a todas. Um enorme obrigado à comunidade da Casa Geral pela acolhida e por ter compartilhado tão generosamente seu espaço, seus recursos e seus bens.   Site do Instituto das Filhas de Maria Auxiliadora - FMA

Assembleia do Conselho do MJS da Inspetoria de Belo Horizonte

De 5 a 7 de dezembro, a presença salesiana de Vitória sediou a Assembleia do Conselho Inspetorial do Movimento Juvenil Salesiano da Inspetoria São João Bosco de Belo Horizonte. A programação conteve momentos de diálogo, espiritualidade e avaliação, além do planejamento das ações e da elaboração do cronograma para 2026. Durante o encontro, as presenças salesianas que integram o MJS apresentaram uma síntese das atividades realizadas em 2025. O evento contou com a participação do Inspetor, P. Ricardo Carlos; do Delegado para a Pastoral Juvenil Salesiana, Adenilson Rubin, e do Coordenador das Associações Juvenis, Walberto Giordano. No dia 6 de dezembro, ocorreu a eleição para o novo Conselho Inspetorial do MJS, e na Missa do dia seguinte deu-se a posse à nova Coordenação do CIAJS. Agência Info Salesiana

Receba as novidades no seu e-mail

O futuro que você merece

Siga a RSB nas redes sociais:

2025 © Rede Salesiana Brasil