O meu resumo diário das notícias e acontecimentos em tecnologia e segurança informática que considero mais relevantes. Leitura de 2 minutos para te manteres atualizado.

Daily Prompt – 04 de Fevereiro
O anuncio do governo espanhol na proibição no acesso dos mais novos às redes sociais
O governo de Pedro Sánchez anunciou que vai propor um conjunto de medidas centradas na segurança digital, neste pacote de medidas encontra-se a proibição no acesso às redes sociais a menores de 16 anos, impondo às plataformas a obrigação de criar mecanismos “reais” de verificação de idade e responsabilizando os seus dirigentes por conteúdos ilegais ou de ódio. A medida será integrada num pacote legislativo mais amplo, que inclui a criminalização da manipulação de algoritmos e da promoção intencional de conteúdos ilegais, bem como sistemas de rastreamento de discurso de ódio e de polarização. O objetivo declarado é transformar as redes num espaço mais “saudável”, protegendo crianças e adolescentes do “far-west digital”, nas palavras do próprio primeiro ministro.
Como está Portugal
Em Portugal, o PSD apresentou esta semana um projeto de lei para travar o acesso livre de menores de 16 anos às redes sociais, mas ainda não existe uma proibição aprovada pelo Governo ou pela Assembleia da República. A proposta define 16 anos como idade mínima para uso autónomo, permitindo acesso entre os 13 e os 16 anos apenas com consentimento parental verificado, e restringindo o uso abaixo dos 13 anos. O debate está centrado não só na proteção da saúde mental e da segurança dos menores, mas também nas dificuldades técnicas e de privacidade associadas à verificação de idade, tema sublinhado por associações de pais e especialistas. Mas é minha opinião que muito vai ter que ser feito em particular pela forma de verificação da idade, apesar de se ter comentado que o processo poderia ser verificado pela Chave Móvel Digital (CMD), algo que actualmente não está previsto.
Espanha vs. Portugal
A diferença central é o grau de avanço e ambição: Espanha anunciou uma proibição nacional clara e direta, com responsabilização penal reforçada das plataformas, enquanto Portugal está ainda numa fase legislativa inicial, com um projeto partidário em discussão. Madrid apresenta um pacote integrado que liga idade mínima, controlo algorítmico, combate ao discurso de ódio e rastreabilidade de conteúdos, ao passo que Lisboa discute sobretudo a idade de acesso e os mecanismos de autenticação, sem ainda um enquadramento tão abrangente para algoritmos e modelos de recomendação. Em ambos os países, há reservas públicas sobre a eficácia das proibições e o risco de empurrar os jovens para soluções alternativas menos reguladas, mas Espanha coloca a fasquia mais alta em termos de obrigação e sanção.
Objetivos da União Europeia
A UE, através do Parlamento Europeu, já defendeu uma idade mínima harmonizada de 16 anos para acesso a redes sociais e “companheiros de IA”, com possibilidade de acesso dos 13 aos 16 anos apenas com consentimento parental. Essa orientação complementa o RGPD e a Lei dos Serviços Digitais, ao exigir proteção reforçada para menores, proibição de práticas de design mais aditivas e aplicação mais estrita das regras, incluindo multas e eventuais vetos a plataformas incumpridoras. Espanha posiciona‑se na linha da frente ao transformar esta visão em lei nacional robusta, enquanto Portugal começa agora a alinhar‑se com esse “novo padrão europeu” de maioridade digital, ainda com muitos detalhes por fechar.
No Reino Unido
O Reino Unido tem essa ambição para 2027, tendo colocado em processo de consulta pública, que terá a duração de três meses e irá uma proibição para menores de 16 anos, bem como medidas para prevenir o doom-scrolling, ou seja, “o consumo compulsivo de conteúdos negativos.”
Em resumo: com estas situações de tornar como lei, regulamentada e aprovada mais o desenvolvimento e a implementação as medidas técnicas. Acredito que isso possa (talvez) acontecer lá para 2030.
Daily Prompt – 03 de Fevereiro
Europa em Alerta: Ausência dos EUA no Relatório Global Aumenta Perigo da IA sem Regras
Já não me causa surpresa, apenas fico incrédulo! A recusa dos Estados Unidos em apoiar o segundo Relatório Internacional de Segurança em IA (https://internationalaisafetyreport.org/) expõe uma fratura estratégica entre a abordagem europeia, centrada na regulação, e a nova linha de Washington, mais hostil a compromissos multilaterais vinculativos.
Sob a liderança de Yoshua Bengio (https://pt.wikipedia.org/wiki/Yoshua_Bengio), o documento reúne mais de 100 especialistas e é apoiado por mais de 30 países e organizações internacionais, entre elas a União Europeia, a OCDE e as Nações Unidas, consolidando a Europa como um dos polos normativos centrais na governação da IA.
Para Bruxelas, o relatório funciona como extensão técnica da sua agenda regulatória, materializada no AI Act e em políticas de “IA segura, fiável e centrada no ser humano” – oferecendo uma base científica para defender padrões globais mais rígidos em transparência, mitigação de riscos extremos e prevenção de usos maliciosos, como ciberataques e aplicações em armas biológicas. Ao endossar o texto, a UE posiciona‑se como arquiteto de regras num cenário em que os principais desenvolvedores de modelos estão sediados em território norte‑americano, mas o impulso regulatório parte sobretudo da Europa.
A decisão de Washington, sob a administração Trump, de se afastar deste esforço segue um padrão de retirada de compromissos internacionais, que já incluiu a saída do Acordo de Paris e da Organização Mundial da Saúde, e uma viragem contra quadros globais considerados excessivamente “precaucionistas”. O Departamento do Comércio, que constava no relatório de 2025, forneceu comentários às versões preliminares, mas recusou assinar o documento final, enquanto o próprio governo reorienta a sua política ao rebatizar estruturas internas e enfatizar a prioridade à inovação sobre a segurança.
A nível mundial, a ausência do principal polo tecnológico do planeta fragiliza a tentativa de construir um regime coerente de segurança em IA, precisamente num momento em que o relatório identifica riscos em rápida escalada – desde modelos que já igualam especialistas em domínios sensíveis até evidências de comportamentos diferentes entre fase de teste e uso real. Sem um alinhamento mínimo entre EUA, UE, China e restante G20, aumentam três perigos: a fragmentação regulatória, com blocos rivais a definirem regras incompatíveis; uma “corrida ao fundo” em que jurisdições relaxam exigências para atrair investimento; e uma janela de oportunidade para atores estatais e criminosos explorarem assimetrias de segurança e falhas de coordenação internacional.
À medida que o AI Impact Summit de Nova Deli se aproxima, com a Índia a tentar recentrar o debate em “impacto” e implementação prática, a Europa surge como a voz mais consistente a exigir ancoragem destes impactos em compromissos robustos de segurança, mesmo perante a recusa norte‑americana em subscrever o novo roteiro global.
E como fica Portugal?
Portugal, tradicional aliado das posições europeias em matéria de regulação digital, tende a ver com preocupação a retirada dos EUA do relatório global de segurança em IA, numa altura em que o país está a alinhar a sua nova Agenda Nacional de Inteligência Artificial com o AI Act e com uma abordagem de “IA segura, lícita e fiável”. Em Lisboa, a ausência norte‑americana é lida menos como um detalhe diplomático e mais como um fator de incerteza num ecossistema em que empresas portuguesas e europeias terão de cumprir padrões rigorosos, enquanto parte da inovação continua a ser orientada por mercados com exigências mais laxistas. Num contexto em que o governo aposta em centros de dados, supercomputação e modelos de língua portuguesa, o sentimento dominante entre decisores e especialistas é de que o enfraquecimento do consenso internacional aumenta os riscos de uma corrida desregulada, em que falhas de coordenação podem amplificar ameaças já identificadas pelo relatório, da cibercriminalidade à utilização de IA para desenvolver armas biológicas.
Daily Prompt – 02 de Fevereiro
IA prepara-se para “pensar” ciência, mas os humanos vão continuar a definir o rumo
A próxima fronteira da inteligência artificial na ciência já tem data indicativa: dentro de cinco anos, sistemas de IA poderão propor e testar hipóteses científicas quase de ponta a ponta, defendem os investigadores Robert West (EPFL) e Ágnes Horvát (Northwestern). A mudança promete acelerar descobertas, mas também levanta questões sobre quem decide o que é realmente importante investigar.
De facto, hoje a IA já é muito mais do que um apoio à escrita de artigos ou à análise estatística. Ferramentas de IA generativa ajudam a explorar literatura, sintetizar resultados e até sugerir experiências, aumentando o volume de produção científica e o impacto das publicações. Para West e Horvát, o passo seguinte é claro: sistemas capazes de ler praticamente “toda” a ciência publicada começarão a propor novas perguntas, identificar lacunas e desenhar planos de investigação, automatizando partes significativas do ciclo científico.
O caso mais emblemático desta transformação é o AlphaFold, desenvolvido pela DeepMind, que valeu a Demis Hassabis e John Jumper o Prémio Nobel da Química de 2024. Em 2020, o AlphaFold2 demonstrou ser capaz de prever a estrutura tridimensional de praticamente todas as proteínas conhecidas, apenas a partir da sequência de aminoácidos, resolvendo um problema em aberto há mais de 50 anos na biologia. Desde então, o sistema foi usado por milhões de investigadores em 190 países e abriu caminho a avanços na compreensão da resistência aos antibióticos, no desenho de enzimas para degradar plástico e na criação de novas proteínas à medida.
O objetivo declarado desta nova geração de IA científica é ambicioso: encurtar drasticamente o tempo entre uma ideia e uma prova de conceito, permitindo simular cenários, priorizar experiências promissoras e apoiar o desenho de terapias, materiais ou soluções para desafios globais como doenças infecciosas, clima ou segurança alimentar. Em paralelo, iniciativas políticas como a Genesis Mission, lançada pelo governo dos Estados Unidos, querem treinar agentes de IA em vastos repositórios de dados federais para “testar novas hipóteses, automatizar fluxos de trabalho de investigação e acelerar descobertas científicas”.
Mas nem todos acreditam que a ciência possa ser “automatizada”. A filósofa Alessandra Buccella defende que as descobertas científicas são inseparáveis da comunidade humana – gerações de investigadores, valores partilhados, debate crítico e compromisso com a honestidade intelectual. Na sua leitura, a IA pode ser uma ferramenta poderosa para analisar dados e encontrar padrões, mas continua dependente dos humanos para definir problemas relevantes, interpretar resultados e enquadrar o conhecimento no contexto social.
Entre o entusiasmo e a cautela, uma questão mantém‑se central: quando a IA começar a sugerir as próximas grandes perguntas da ciência, quem garante que essas perguntas refletem as prioridades e valores da humanidade? West lembra que “o mais difícil na ciência é saber que questões colocar”, e essa continua a ser, por enquanto, uma responsabilidade humana.
A Europa está a posicionar‑se para não ficar para trás nesta nova fase da ciência impulsionada por IA, combinando investimento forte, infraestruturas de computação e regulação.
A Europa está a posicionar‑se para não ficar para trás nesta nova fase da ciência impulsionada por IA, combinando investimento forte, infraestruturas de computação e regulação.
Estratégia europeia para IA na ciência
A Comissão Europeia lançou uma Estratégia Europeia para a IA na Ciência para reforçar a liderança científica e tecnológica, reconhecendo que a IA já é central em áreas como previsão de proteínas, descoberta de antibióticos e meteorologia avançada. Na prática, a estratégia prevê duplicar o investimento anual em IA no programa Horizon Europe para mais de 3 mil milhões de euros, com um aumento específico para aplicações de IA na ciência.
RAISE e “AI Gigafactories”
O núcleo operacional será o RAISE – Resource for AI Science in Europe, um “instituto virtual” que agrega dados, capacidade de computação, talento e financiamento para evitar a fragmentação entre Estados‑Membros. Estão previstos cerca de 600 milhões de euros para garantir acesso de investigadores e startups a centros de computação de alto desempenho, as chamadas AI Gigafactories, permitindo treinar grandes modelos e correr simulações científicas complexas.
Regulação, ética e competitividade
Em paralelo, o AI Act procura garantir um uso seguro e responsável da IA, tentando equilibrar a mitigação de riscos com a necessidade de não travar a inovação científica. Relatórios de think tanks europeus sublinham que casos como o AlphaFold mostram o valor da ciência aberta e da colaboração público‑privada, mas alertam que uma cultura de “controlo total” pode fazer a Europa perder terreno na corrida global da IA científica.
Onde encontrar respostas e oportunidades
Para acompanhar e explorar o que está a ser feito, pode seguir:
- Portal da Comissão Europeia – secção “European AI in Science Strategy” (descrição da estratégia, prioridades e documentos oficiais) – https://research-and-innovation.ec.europa.eu/strategy/strategy-research-and-innovation/our-digital-future/european-ai-science-strategy_en?prefLang=pt.
- Programa Horizon Europe – chamadas específicas “AI in Science” e ações ligadas ao piloto RAISE, incluindo convites a consórcios de investigação – https://commission.europa.eu/funding-tenders/find-funding/eu-funding-programmes/horizon-europe_en.
- Parecer “Successful and timely uptake of AI in science in the EU”, do grupo de conselheiros científicos da Comissão, que analisa oportunidades e riscos da IA na ciência europeia.
- Organizações como EOSC Federation e relatórios do Lisbon Council sobre IA para descoberta científica, que explicam em linguagem acessível os impactos e os dilemas para a competitividade europeia.
Subscreve o nosso RSS para receberes os Daily Prompts automaticamente no NewsBlur, ou no Feedly.com
https://formacaoajuda.com/category/daily-prompt/feed/
Subscreve a Ajuda à Informática e recebe os novos artigos e Podcasts no teu e-mail.