O meu resumo diário das notícias e acontecimentos em tecnologia e segurança informática que considero mais relevantes. Leitura de 2 minutos para te manteres atualizado.

Daily Prompt – 18 de Fevereiro
Bruxelas puxa travão à IA nos corredores do poder europeu
O Parlamento Europeu decidiu desativar as funcionalidades de inteligência artificial nos dispositivos de trabalho de eurodeputados e assessores, numa medida que aprofunda a estratégia de soberania digital e de contenção de riscos de ciberespionagem no coração das instituições da União Europeia. A decisão, comunicada por email interno, abrange tablets e smartphones institucionais e reflete a crescente inquietação com a forma como ferramentas de IA tratam e transferem dados sensíveis para servidores externos.
Entre as funcionalidades agora bloqueadas estão assistentes de escrita, ferramentas de resumo automático, assistentes virtuais avançados e leitores inteligentes de páginas web, todos dependentes de processamento em nuvem e, muitas vezes, de infraestruturas tecnológicas fora da jurisdição europeia. Aplicações essenciais como email, calendário e edição de documentos continuam disponíveis, numa tentativa de equilibrar segurança com continuidade operacional. Os serviços técnicos da instituição assumem que, enquanto não estiver claramente mapeado o volume e o tipo de dados enviados para prestadores externos, a opção mais prudente é desligar estas funcionalidades por defeito.
O alerta nasceu de uma constatação incómoda: várias destas ferramentas de IA estavam a transmitir para a nuvem informação que, do ponto de vista institucional, poderia e deveria permanecer confinada ao dispositivo, abrindo potenciais vetores de fuga de dados ou de vigilância por Estados terceiros. A decisão surge na sequência de outros movimentos de contenção, como a proibição do TikTok em 2023 em equipamentos de serviço e os apelos, em 2025, para reduzir a dependência de software norte‑americano nas estruturas da UE.
O Parlamento aconselhou ainda os eurodeputados a aplicarem cautelas semelhantes nos seus dispositivos pessoais utilizados para fins profissionais, recomendando a revisão de definições de IA, a limitação de permissões de aplicações e a não exposição de emails de trabalho ou documentos internos a serviços de análise automática. A orientação alinha-se com a entrada em vigor progressiva do AI Act e com o reforço das obrigações de cibersegurança na administração pública europeia, quadro em que Portugal também está a adaptar a sua estratégia nacional de IA e ciberdefesa às novas regras comunitárias, incluindo a transposição da diretiva NIS2 e o reforço da infraestrutura de cloud pública para serviços do Estado. Para Bruxelas, o recado é claro: enquanto a fronteira entre produtividade digital e exposição de dados não estiver bem definida, a política será “desligar primeiro, avaliar depois”.
Nota: As fontes oficiais descrevem a medida como temporária e “em vigor até que a avaliação dos fluxos de dados e dos riscos de cibersegurança esteja concluída”
Daily Prompt – 17 de Fevereiro
Cibersegurança 4.0: dados, IA e talento diverso na linha da frente
A próxima vaga de ciberataques não se combate apenas com mais firewalls, mas com mais inteligência (humana e artificial). A visão que está a ganhar força em empresas como a Siemens é clara: o futuro da cibersegurança passa por usar massivamente dados e IA, ao mesmo tempo que se investe a sério em pessoas, formação e diversidade.
Natalia Oropeza (https://www.linkedin.com/posts/nataliaoropeza_why-speaking-up-matters-in-cybersecurity-activity-7424412424927305728-_Yks), Global Chief Cybersecurity Officer da Siemens, defende que as organizações têm de assumir a cibersegurança como pilar estratégico, e não como um tema técnico de bastidores. Num cenário de tensões geopolíticas e ataques a infraestruturas críticas, a prioridade já não é perguntar “se” vão ser atacadas, mas “quando” – e quão rápido conseguem recuperar. Isso implica estratégias de ponta a ponta, gestão de continuidade do negócio e uma cultura de resiliência preparada para o pior dia da empresa.
Portugal está no mapa desta transformação. O hub de cibersegurança da Siemens em território nacional integra a estrutura global da empresa, com ciberacademias que formam talentos em 12 meses e programas como a CyberMinds Academy, de onde já saíram dezenas de especialistas contratados. No final de 2025, o Portugal Tech Hub contava mais de 1.600 especialistas de mais de 50 nacionalidades, com 120 dedicados em exclusivo à cibersegurança.
Mas a grande mudança está na combinação entre IA e diversidade. O objetivo é explorar o poder dos dados e do processamento inteligente para tornar equipas mais eficientes, automatizar deteção de ameaças e antecipar ataques, libertando especialistas para decisões críticas. Ao mesmo tempo, a diversidade deixa de ser apenas um slogan: equipas multiculturais e com mais mulheres trazem novas perspetivas e formas de resolver problemas em situações de crise.
Oropeza, fundadora da iniciativa Women4Cyber (https://women4cyber.eu/), resume o propósito: proteger a tecnologia que pode tornar o mundo um lugar melhor, ao mesmo tempo que abre portas para que outras mulheres não tenham de fazer o caminho sozinhas. Para quem gosta de tecnologia e segurança, o recado é direto: o futuro da cibersegurança joga-se onde os dados encontram a IA – e onde as pessoas certas, com perfis diversos, estão preparadas para responder ao próximo ataque.
Daily Prompt – 16 de Fevereiro
A utilização da IA no “consultório” da nossa casa: o risco de diagnósticos “prontos a usar”
A inteligência artificial (IA) já entrou no consultório antes do médico, trazendo diagnósticos “prontos” que muitos pacientes apresentam como verdades estabelecidas. Porém e apesar dessas plataformas poderem ser úteis para esclarecer termos médicos e enquadrar sintomas, mas não substituem a avaliação clínica integrada. Um diagnóstico é feito tendo por base muitos factores, quer pessoais, histórico familiar e exames complementares de diagnóstico.
Um dos perigos mais evidentes é a leitura isolada de exames, como focar apenas num determinado o valor (por exemplo, valor de uma análise ao PSA) sem considerar idade, antecedentes, evolução temporal ou outros marcadores relevantes. Olhar para um número fora de contexto, com o rótulo de “normal” ou “alterado” dado por uma IA generativa, pode atrasar diagnósticos graves ou, pelo contrário, gerar alarmes injustificados. A medicina não se faz de um único resultado, mas de um conjunto coerente de dados interpretados por um profissional.
Há ainda um risco silencioso: a partilha de dados pessoais e clínicos sensíveis com sistemas cuja política de privacidade o utilizador raramente lê. Antes de introduzir exames, sintomas ou histórico médico, é fundamental recordar que estas ferramentas não são o seu médico e que a informação pode ser armazenada, analisada e reutilizada. A regra é simples: usar a IA como apoio informativo, nunca como fonte de diagnóstico, e guardar a decisão final para a relação direta entre médico e paciente. E muito importante, nunca fornecer dados pessoais.
Daily Prompt – 04 de Fevereiro
O anuncio do governo espanhol na proibição no acesso dos mais novos às redes sociais
O governo de Pedro Sánchez anunciou que vai propor um conjunto de medidas centradas na segurança digital, neste pacote de medidas encontra-se a proibição no acesso às redes sociais a menores de 16 anos, impondo às plataformas a obrigação de criar mecanismos “reais” de verificação de idade e responsabilizando os seus dirigentes por conteúdos ilegais ou de ódio. A medida será integrada num pacote legislativo mais amplo, que inclui a criminalização da manipulação de algoritmos e da promoção intencional de conteúdos ilegais, bem como sistemas de rastreamento de discurso de ódio e de polarização. O objetivo declarado é transformar as redes num espaço mais “saudável”, protegendo crianças e adolescentes do “far-west digital”, nas palavras do próprio primeiro ministro.
Como está Portugal
Em Portugal, o PSD apresentou esta semana um projeto de lei para travar o acesso livre de menores de 16 anos às redes sociais, mas ainda não existe uma proibição aprovada pelo Governo ou pela Assembleia da República. A proposta define 16 anos como idade mínima para uso autónomo, permitindo acesso entre os 13 e os 16 anos apenas com consentimento parental verificado, e restringindo o uso abaixo dos 13 anos. O debate está centrado não só na proteção da saúde mental e da segurança dos menores, mas também nas dificuldades técnicas e de privacidade associadas à verificação de idade, tema sublinhado por associações de pais e especialistas. Mas é minha opinião que muito vai ter que ser feito em particular pela forma de verificação da idade, apesar de se ter comentado que o processo poderia ser verificado pela Chave Móvel Digital (CMD), algo que actualmente não está previsto.
Espanha vs. Portugal
A diferença central é o grau de avanço e ambição: Espanha anunciou uma proibição nacional clara e direta, com responsabilização penal reforçada das plataformas, enquanto Portugal está ainda numa fase legislativa inicial, com um projeto partidário em discussão. Madrid apresenta um pacote integrado que liga idade mínima, controlo algorítmico, combate ao discurso de ódio e rastreabilidade de conteúdos, ao passo que Lisboa discute sobretudo a idade de acesso e os mecanismos de autenticação, sem ainda um enquadramento tão abrangente para algoritmos e modelos de recomendação. Em ambos os países, há reservas públicas sobre a eficácia das proibições e o risco de empurrar os jovens para soluções alternativas menos reguladas, mas Espanha coloca a fasquia mais alta em termos de obrigação e sanção.
Objetivos da União Europeia
A UE, através do Parlamento Europeu, já defendeu uma idade mínima harmonizada de 16 anos para acesso a redes sociais e “companheiros de IA”, com possibilidade de acesso dos 13 aos 16 anos apenas com consentimento parental. Essa orientação complementa o RGPD e a Lei dos Serviços Digitais, ao exigir proteção reforçada para menores, proibição de práticas de design mais aditivas e aplicação mais estrita das regras, incluindo multas e eventuais vetos a plataformas incumpridoras. Espanha posiciona‑se na linha da frente ao transformar esta visão em lei nacional robusta, enquanto Portugal começa agora a alinhar‑se com esse “novo padrão europeu” de maioridade digital, ainda com muitos detalhes por fechar.
No Reino Unido
O Reino Unido tem essa ambição para 2027, tendo colocado em processo de consulta pública, que terá a duração de três meses e irá uma proibição para menores de 16 anos, bem como medidas para prevenir o doom-scrolling, ou seja, “o consumo compulsivo de conteúdos negativos.”
Em resumo: com estas situações de tornar como lei, regulamentada e aprovada mais o desenvolvimento e a implementação as medidas técnicas. Acredito que isso possa (talvez) acontecer lá para 2030.
Daily Prompt – 03 de Fevereiro
Europa em Alerta: Ausência dos EUA no Relatório Global Aumenta Perigo da IA sem Regras
Já não me causa surpresa, apenas fico incrédulo! A recusa dos Estados Unidos em apoiar o segundo Relatório Internacional de Segurança em IA (https://internationalaisafetyreport.org/) expõe uma fratura estratégica entre a abordagem europeia, centrada na regulação, e a nova linha de Washington, mais hostil a compromissos multilaterais vinculativos.
Sob a liderança de Yoshua Bengio (https://pt.wikipedia.org/wiki/Yoshua_Bengio), o documento reúne mais de 100 especialistas e é apoiado por mais de 30 países e organizações internacionais, entre elas a União Europeia, a OCDE e as Nações Unidas, consolidando a Europa como um dos polos normativos centrais na governação da IA.
Para Bruxelas, o relatório funciona como extensão técnica da sua agenda regulatória, materializada no AI Act e em políticas de “IA segura, fiável e centrada no ser humano” – oferecendo uma base científica para defender padrões globais mais rígidos em transparência, mitigação de riscos extremos e prevenção de usos maliciosos, como ciberataques e aplicações em armas biológicas. Ao endossar o texto, a UE posiciona‑se como arquiteto de regras num cenário em que os principais desenvolvedores de modelos estão sediados em território norte‑americano, mas o impulso regulatório parte sobretudo da Europa.
A decisão de Washington, sob a administração Trump, de se afastar deste esforço segue um padrão de retirada de compromissos internacionais, que já incluiu a saída do Acordo de Paris e da Organização Mundial da Saúde, e uma viragem contra quadros globais considerados excessivamente “precaucionistas”. O Departamento do Comércio, que constava no relatório de 2025, forneceu comentários às versões preliminares, mas recusou assinar o documento final, enquanto o próprio governo reorienta a sua política ao rebatizar estruturas internas e enfatizar a prioridade à inovação sobre a segurança.
A nível mundial, a ausência do principal polo tecnológico do planeta fragiliza a tentativa de construir um regime coerente de segurança em IA, precisamente num momento em que o relatório identifica riscos em rápida escalada – desde modelos que já igualam especialistas em domínios sensíveis até evidências de comportamentos diferentes entre fase de teste e uso real. Sem um alinhamento mínimo entre EUA, UE, China e restante G20, aumentam três perigos: a fragmentação regulatória, com blocos rivais a definirem regras incompatíveis; uma “corrida ao fundo” em que jurisdições relaxam exigências para atrair investimento; e uma janela de oportunidade para atores estatais e criminosos explorarem assimetrias de segurança e falhas de coordenação internacional.
À medida que o AI Impact Summit de Nova Deli se aproxima, com a Índia a tentar recentrar o debate em “impacto” e implementação prática, a Europa surge como a voz mais consistente a exigir ancoragem destes impactos em compromissos robustos de segurança, mesmo perante a recusa norte‑americana em subscrever o novo roteiro global.
E como fica Portugal?
Portugal, tradicional aliado das posições europeias em matéria de regulação digital, tende a ver com preocupação a retirada dos EUA do relatório global de segurança em IA, numa altura em que o país está a alinhar a sua nova Agenda Nacional de Inteligência Artificial com o AI Act e com uma abordagem de “IA segura, lícita e fiável”. Em Lisboa, a ausência norte‑americana é lida menos como um detalhe diplomático e mais como um fator de incerteza num ecossistema em que empresas portuguesas e europeias terão de cumprir padrões rigorosos, enquanto parte da inovação continua a ser orientada por mercados com exigências mais laxistas. Num contexto em que o governo aposta em centros de dados, supercomputação e modelos de língua portuguesa, o sentimento dominante entre decisores e especialistas é de que o enfraquecimento do consenso internacional aumenta os riscos de uma corrida desregulada, em que falhas de coordenação podem amplificar ameaças já identificadas pelo relatório, da cibercriminalidade à utilização de IA para desenvolver armas biológicas.
Daily Prompt – 02 de Fevereiro
IA prepara-se para “pensar” ciência, mas os humanos vão continuar a definir o rumo
A próxima fronteira da inteligência artificial na ciência já tem data indicativa: dentro de cinco anos, sistemas de IA poderão propor e testar hipóteses científicas quase de ponta a ponta, defendem os investigadores Robert West (EPFL) e Ágnes Horvát (Northwestern). A mudança promete acelerar descobertas, mas também levanta questões sobre quem decide o que é realmente importante investigar.
De facto, hoje a IA já é muito mais do que um apoio à escrita de artigos ou à análise estatística. Ferramentas de IA generativa ajudam a explorar literatura, sintetizar resultados e até sugerir experiências, aumentando o volume de produção científica e o impacto das publicações. Para West e Horvát, o passo seguinte é claro: sistemas capazes de ler praticamente “toda” a ciência publicada começarão a propor novas perguntas, identificar lacunas e desenhar planos de investigação, automatizando partes significativas do ciclo científico.
O caso mais emblemático desta transformação é o AlphaFold, desenvolvido pela DeepMind, que valeu a Demis Hassabis e John Jumper o Prémio Nobel da Química de 2024. Em 2020, o AlphaFold2 demonstrou ser capaz de prever a estrutura tridimensional de praticamente todas as proteínas conhecidas, apenas a partir da sequência de aminoácidos, resolvendo um problema em aberto há mais de 50 anos na biologia. Desde então, o sistema foi usado por milhões de investigadores em 190 países e abriu caminho a avanços na compreensão da resistência aos antibióticos, no desenho de enzimas para degradar plástico e na criação de novas proteínas à medida.
O objetivo declarado desta nova geração de IA científica é ambicioso: encurtar drasticamente o tempo entre uma ideia e uma prova de conceito, permitindo simular cenários, priorizar experiências promissoras e apoiar o desenho de terapias, materiais ou soluções para desafios globais como doenças infecciosas, clima ou segurança alimentar. Em paralelo, iniciativas políticas como a Genesis Mission, lançada pelo governo dos Estados Unidos, querem treinar agentes de IA em vastos repositórios de dados federais para “testar novas hipóteses, automatizar fluxos de trabalho de investigação e acelerar descobertas científicas”.
Mas nem todos acreditam que a ciência possa ser “automatizada”. A filósofa Alessandra Buccella defende que as descobertas científicas são inseparáveis da comunidade humana – gerações de investigadores, valores partilhados, debate crítico e compromisso com a honestidade intelectual. Na sua leitura, a IA pode ser uma ferramenta poderosa para analisar dados e encontrar padrões, mas continua dependente dos humanos para definir problemas relevantes, interpretar resultados e enquadrar o conhecimento no contexto social.
Entre o entusiasmo e a cautela, uma questão mantém‑se central: quando a IA começar a sugerir as próximas grandes perguntas da ciência, quem garante que essas perguntas refletem as prioridades e valores da humanidade? West lembra que “o mais difícil na ciência é saber que questões colocar”, e essa continua a ser, por enquanto, uma responsabilidade humana.
A Europa está a posicionar‑se para não ficar para trás nesta nova fase da ciência impulsionada por IA, combinando investimento forte, infraestruturas de computação e regulação.
A Europa está a posicionar‑se para não ficar para trás nesta nova fase da ciência impulsionada por IA, combinando investimento forte, infraestruturas de computação e regulação.
Estratégia europeia para IA na ciência
A Comissão Europeia lançou uma Estratégia Europeia para a IA na Ciência para reforçar a liderança científica e tecnológica, reconhecendo que a IA já é central em áreas como previsão de proteínas, descoberta de antibióticos e meteorologia avançada. Na prática, a estratégia prevê duplicar o investimento anual em IA no programa Horizon Europe para mais de 3 mil milhões de euros, com um aumento específico para aplicações de IA na ciência.
RAISE e “AI Gigafactories”
O núcleo operacional será o RAISE – Resource for AI Science in Europe, um “instituto virtual” que agrega dados, capacidade de computação, talento e financiamento para evitar a fragmentação entre Estados‑Membros. Estão previstos cerca de 600 milhões de euros para garantir acesso de investigadores e startups a centros de computação de alto desempenho, as chamadas AI Gigafactories, permitindo treinar grandes modelos e correr simulações científicas complexas.
Regulação, ética e competitividade
Em paralelo, o AI Act procura garantir um uso seguro e responsável da IA, tentando equilibrar a mitigação de riscos com a necessidade de não travar a inovação científica. Relatórios de think tanks europeus sublinham que casos como o AlphaFold mostram o valor da ciência aberta e da colaboração público‑privada, mas alertam que uma cultura de “controlo total” pode fazer a Europa perder terreno na corrida global da IA científica.
Onde encontrar respostas e oportunidades
Para acompanhar e explorar o que está a ser feito, pode seguir:
- Portal da Comissão Europeia – secção “European AI in Science Strategy” (descrição da estratégia, prioridades e documentos oficiais) – https://research-and-innovation.ec.europa.eu/strategy/strategy-research-and-innovation/our-digital-future/european-ai-science-strategy_en?prefLang=pt.
- Programa Horizon Europe – chamadas específicas “AI in Science” e ações ligadas ao piloto RAISE, incluindo convites a consórcios de investigação – https://commission.europa.eu/funding-tenders/find-funding/eu-funding-programmes/horizon-europe_en.
- Parecer “Successful and timely uptake of AI in science in the EU”, do grupo de conselheiros científicos da Comissão, que analisa oportunidades e riscos da IA na ciência europeia.
- Organizações como EOSC Federation e relatórios do Lisbon Council sobre IA para descoberta científica, que explicam em linguagem acessível os impactos e os dilemas para a competitividade europeia.
Subscreve o nosso RSS para receberes os Daily Prompts automaticamente no NewsBlur, ou no Feedly.com
https://formacaoajuda.com/category/daily-prompt/feed/
Subscreve a Ajuda à Informática e recebe os novos artigos e Podcasts no teu e-mail.