Projeto de detector de mentiras ‘Orwelliano’ contestado em tribunal da UE

7 de fevereiro de 2021 0 23

O processo de transparência destaca questões de ética e eficácia associadas ao principal programa de P&D do bloco

Um desafio legal foi ouvido hoje no Tribunal de Justiça da Europa em relação a um polêmico projeto de pesquisa financiado pela UE usando inteligência artificial para “detecção de mentira” facial com o objetivo de acelerar os controles de imigração.

processo de transparência contra a Agência Executiva de Pesquisa da UE (REA), que supervisiona os programas de financiamento do bloco, foi aberto em março de 2019 por Patrick Breyer, eurodeputado do Partido Pirata na Alemanha e ativista das liberdades civis – que já processou a Comissão antes de mais de um recusa de divulgação de documentos.

Ele está buscando a liberação de documentos sobre a avaliação ética, admissibilidade legal, marketing e resultados do projeto. E espera estabelecer um princípio de que a pesquisa com financiamento público deve cumprir os direitos fundamentais da UE – e ajudar a evitar que dinheiro público seja desperdiçado em “óleo de cobra” de IA no processo.

“A UE continua a desenvolver tecnologias perigosas de vigilância e controle e até mesmo financiará pesquisas de armas no futuro. Espero uma decisão histórica que permita o escrutínio público e o debate sobre pesquisas antiéticas financiadas publicamente a serviço de interesses privados de lucro”, disse Breyer em uma declaração após a audiência de hoje. “Com meu processo de transparência, quero que o tribunal decida de uma vez por todas que contribuintes, cientistas, mídia e membros do Parlamento têm direito à informação sobre pesquisas financiadas com recursos públicos – especialmente no caso de tecnologia pseudocientífica e orwelliana, como o ‘iBorderCtrl detector de mentiras por vídeo ‘. ”

O tribunal ainda não definiu uma data de decisão sobre o caso, mas Breyer disse que os juízes questionaram a agência “intensa e criticamente por mais de uma hora” – e revelaram que os documentos relacionados à tecnologia de IA envolvida, que não foram divulgados publicamente, mas foram revisados ​​pelos juízes, contêm informações como “características étnicas”, suscitando muitas dúvidas.

O juiz presidente questionou se não seria do interesse da agência de pesquisa da UE demonstrar que não tem nada a esconder publicando mais informações sobre o polêmico projeto iBorderCtrl , de acordo com Breyer.

AI ‘detecção de mentira’

A pesquisa em questão é controversa porque a noção de um detector de mentiras preciso continua sendo ficção científica, e por um bom motivo: não há evidências de um “sinal psicológico universal” para o engano.

O projeto iBorderCtrl decorreu entre setembro de 2016 e agosto de 2019, com o financiamento distribuído por 13 entidades privadas ou com fins lucrativos em vários Estados-Membros (incluindo o Reino Unido, Polónia, Grécia e Hungria).

Os relatórios de pesquisas públicas que a Comissão disse que seriam publicados no ano passado, por meio de uma resposta por escrito às perguntas de Breyer que desafiavam a falta de transparência, e não parecem ter visto a luz do dia ainda.

Em 2019, o Intercept foi capaz de testar o sistema iBorderCtrl por si mesmo. O detector de mentiras em vídeo acusou falsamente seu repórter de mentir – julgando que ela havia dado quatro respostas falsas em 16 e dando a ela uma pontuação geral de 48, que relatou que um policial que avaliou os resultados disse ter acionado uma sugestão do sistema que ela deveria ser sujeito a mais verificações (embora não, porque o sistema nunca funcionou de verdade durante os testes de fronteira).

O Intercept disse que teve que registrar uma solicitação de acesso aos dados – um direito que está estabelecido na legislação da UE – a fim de obter uma cópia dos resultados do repórter. Seu relatório citou Ray Bull, professor de investigação criminal da Universidade de Derby, que descreveu o projeto iBorderCtrl como “não confiável” – dada a falta de evidências de que monitorar microgestos no rosto das pessoas é uma forma precisa de medir a mentira.

“Eles estão se enganando pensando que algum dia será substancialmente eficaz e estão desperdiçando muito dinheiro. A tecnologia é baseada em um mal-entendido fundamental sobre o que os humanos fazem quando são verdadeiros e enganadores ”, Bull também disse.

A noção de que a IA pode prever de forma automática os traços humanos se você apenas injetar dados suficientes é dolorosamente comum – basta olhar para as tentativas recentes de reviver a frenologia aplicando o aprendizado de máquina para colher “traços de personalidade” do formato do rosto. Portanto, um “detector de mentiras” de IA de varredura facial segue uma longa e ignóbil “tradição” anticientífica.

No século 21, é francamente incrível que milhões de euros de dinheiro público estejam sendo canalizados para a reformulação de velhas ideias terríveis – antes mesmo de você considerar os pontos cegos éticos e legais inerentes ao financiamento de pesquisas da UE que vai contra os direitos fundamentais estabelecidos na Carta da UE . Quando você considera todas as decisões ruins envolvidas em deixar isso voar, parece extremamente vergonhoso.

A concessão de fundos para uma aplicação tão duvidosa da IA ​​também parece ignorar todas as (boas) pesquisas que têm sido feitas mostrando como as tecnologias baseadas em dados correm o risco de distorção e discriminação de escala.

Não podemos saber com certeza, porém, porque apenas informações muito limitadas foram liberadas sobre como o consórcio por trás do iBorderCtrl avaliou as considerações éticas em sua aplicação experimental – que é uma parte central da reclamação legal.

O desafio que se coloca ao Tribunal de Justiça Europeu no Luxemburgo coloca algumas questões muito embaraçosas para a Comissão: A UE deveria estar a despejar o dinheiro dos contribuintes em “investigação” pseudocientífica? Não deveria estar tentando financiar a ciência real? E por que seu principal programa de pesquisa – a joia da coroa da UE – tem tão pouca supervisão pública?

O fato de um detector de mentiras por vídeo ter passado pelo processo de “ autoavaliação de ética ” da UE , por sua vez, sugere que as alegadas “verificações de ética” não valem uma segunda olhada.

“A decisão de aceitar ou não a candidatura [de I&D] é tomada pela REA depois de os representantes dos Estados-Membros terem tomado uma decisão. Portanto, não há escrutínio público, não há envolvimento do parlamento ou das ONGs. Não existe um órgão de ética [independente] que fará a triagem de todos esses projetos. Todo o sistema está muito mal configurado ”, diz Breyer.

“O argumento deles é basicamente que o objetivo desta P&D não é contribuir para a ciência ou fazer algo para o bem público ou para contribuir com as políticas da UE, mas o objetivo desses programas é realmente apoiar a indústria – desenvolver produtos para vender. Portanto, é realmente para ser um programa econômico, da maneira como foi planejado. E eu acho que realmente precisamos de uma discussão sobre se isso é certo, se deveria ser assim ”.

“A UE está prestes a regulamentar a IA e aqui está financiando tecnologias antiéticas e ilegais”, acrescenta.

Sem supervisão de ética externa

Não só parece hipócrita para a UE financiar pesquisas hostis aos direitos, mas – afirmam os críticos – é um desperdício de dinheiro público que poderia ser gasto em pesquisas genuinamente úteis (seja para fins de segurança ou, mais amplamente, para o público bom e para promover aqueles “valores europeus” aos quais os legisladores da UE adoram).

“O que precisamos saber e compreender é que pesquisas que nunca serão utilizadas porque não funcionam ou são antiéticas ou ilegais, que na verdade desperdiça dinheiro para outros programas que seriam muito importantes e úteis”, argumenta Breyer.

“Por exemplo, no programa de segurança, você talvez pudesse fazer algo de bom em termos de equipamento de proteção policial. Ou talvez em termos de informar a população em termos de prevenção ao crime. Portanto, você poderia fazer muito bem se esses meios fossem usados ​​corretamente – e não nesta tecnologia duvidosa que esperançosamente nunca será usada ”.

A mais recente encarnação do principal programa de pesquisa e inovação da UE, que substitui o Horizonte 2020, tem um orçamento de aproximadamente € 95,5 bilhões para o período de 2021-2027. E impulsionar a transformação digital e os desenvolvimentos em IA estão entre as prioridades de financiamento de pesquisa declaradas da UE . Portanto, o pote de dinheiro disponível para IA “experimental” parece enorme.

Mas quem vai garantir que o dinheiro não seja desperdiçado em óleo de cobra algorítmico – e óleo de cobra algorítmico perigoso em casos em que a P&D é tão claramente contrária à própria carta de direitos humanos fundamentais da UE?

A Comissão Europeia recusou vários pedidos de porta-vozes para falarem sobre estas questões, mas enviou alguns pontos de registo (abaixo) e algumas informações de base sobre o acesso a documentos, que é uma parte fundamental da reclamação legal.

Entre as declarações registradas pela Comissão sobre “ética na pesquisa”, ela começou com a afirmação de que “a ética recebe a maior prioridade em pesquisas financiadas pela UE”.

“Todas as atividades de investigação e inovação realizadas no âmbito do Horizonte 2020 devem cumprir os princípios éticos e as legislações nacionais, europeias e internacionais relevantes, incluindo a Carta dos Direitos Fundamentais e a Convenção Europeia dos Direitos do Homem”, também nos disse, acrescentando: “ Todas as propostas passar por uma avaliação ética específica que verifica e obriga contratualmente a conformidade do projeto de pesquisa com as normas e padrões éticos ”.

Não entrou em detalhes sobre como um “detector de mentiras por vídeo” poderia cumprir os direitos fundamentais da UE – como o direito à dignidade, privacidade, igualdade e não discriminação.

E é importante notar que a Autoridade Europeia para a Proteção de Dados (AEPD) levantou preocupações sobre o desalinhamento entre a investigação científica financiada pela UE e a lei de proteção de dados, escrevendo um parecer preliminar no ano passado: “Recomendamos intensificar o diálogo entre as autoridades de proteção de dados e os conselhos de revisão ética para um entendimento comum das atividades que se qualificam como investigação genuína, códigos de conduta da UE para a investigação científica, um alinhamento mais estreito entre os programas-quadro de investigação da UE e as normas de protecção de dados e o início de um debate sobre as circunstâncias em que o acesso dos investigadores aos dados detidos por as empresas privadas podem ser baseadas no interesse público ”.

No projeto iBorderCtrl especificamente a Comissão nos disse que o projeto nomeou um consultor de ética para supervisionar a implementação dos aspectos éticos da pesquisa “em conformidade com o requisito de ética inicial”. “O orientador atua de forma a garantir autonomia e independência do consórcio”, afirmou, sem revelar quem é o orientador de ética do projeto (autoproclamado).

“Os aspectos éticos são constantemente monitorados pela Comissão / REA durante a execução do projeto por meio da revisão dos resultados relevantes e cuidadosamente analisados ​​em cooperação com especialistas externos independentes durante as reuniões de revisão técnica vinculadas ao final dos períodos de relatório”, continuou. , acrescentando que: “Uma verificação de ética satisfatória foi realizada em março de 2019”.

Não forneceu mais detalhes sobre essa “verificação de ética” autorregulatória.

“A forma como funciona até agora é basicamente um grupo de peritos que a Comissão estabelece com proposta / convite à apresentação de propostas”, diz Breyer, discutindo como o programa de investigação da UE está estruturado. “É dominado por especialistas da indústria, não tem nenhum membro do parlamento lá, só tem – eu acho – um representante da sociedade civil, então está falsamente composto desde o início. Em seguida, vai para a Agência Executiva de Pesquisa e a decisão efetiva é tomada por representantes dos Estados-Membros.

“A chamada [para propostas de pesquisa] em si não parece tão ruim se você olhar – é muito geral – então o problema realmente era a proposta específica que eles propuseram em resposta a ela. E estes não são selecionados por especialistas independentes, tanto quanto eu entendo. A questão da ética é tratada por autoavaliação. Então, basicamente, o candidato deve indicar se há um alto risco ético envolvido no projeto ou não. E só se assim o indicarem, os especialistas – selecionados pela REA – farão uma avaliação ética.

“Não sabemos quem foi selecionado, não sabemos a opinião deles – também está em segredo – e se depois se descobrir que um projeto é antiético não há como revogar a bolsa”.

A acusação de hipocrisia surge fortemente aqui, porque a Comissão está a preparar regras baseadas no risco para a aplicação de IA . E os legisladores da UE vêm dizendo há anos que as tecnologias de inteligência artificial precisam de “grades de proteção” para garantir que sejam aplicadas de acordo com os valores e direitos regionais.

A EVP da comissão, Margrethe Vestager , falou sobre a necessidade de regras para garantir que a inteligência artificial seja “usada com ética” e possa “apoiar as decisões humanas e não prejudicá-las”, por exemplo.

No entanto, as instituições da UE estão simultaneamente despejando fundos públicos em pesquisas de IA que seriam claramente ilegais se implementadas na região e que os críticos da sociedade civil consideram obviamente antiéticas, dada a falta de base científica para a “detecção de mentiras”.

Em uma seção de perguntas frequentes do site iBorderCtrl, os consórcios comerciais por trás do projeto admitem que a implantação no mundo real de algumas das tecnologias envolvidas não seria coberta pelo quadro jurídico da UE existente – acrescentando que isso significa que “eles não poderiam ser implementados sem um decisão política democrática que estabelece uma base jurídica ”.

Ou, dito de outra forma, esse sistema seria ilegal para realmente usar para controles de fronteira na Europa sem uma mudança na lei. Mesmo assim, o financiamento do contribuinte europeu foi investido.

Um porta-voz da AEPD não quis comentar especificamente o caso de Breyer, mas confirmou que o seu parecer preliminar sobre investigação científica e protecção de dados ainda é relevante.

Ele também apontou para outros trabalhos relacionados que abordam um esforço recente da Comissão para encorajar a partilha de dados de saúde pan-UE para fins de investigação – onde a AEPD recomenda que as salvaguardas de proteção de dados devem ser definidas “no início” e também que uma legislação deve ser estabelecida uma base antes da realização da pesquisa.

“ A AEPD recomenda que se preste especial atenção à utilização ética dos dados no âmbito [da partilha de dados de saúde], para o que sugere ter em conta os comités de ética existentes e o seu papel no contexto da legislação nacional”, escreve o principal supervisor de dados da UE, acrescentando que ele está “convencido de que o sucesso do [plano de compartilhamento de dados de saúde] dependerá do estabelecimento de um mecanismo de governança de dados forte que forneça garantias suficientes de uma gestão legal, responsável e ética baseada nos valores da UE, incluindo o respeito pelos direitos fundamentais ”.

tl; dr: O uso legal e ético dos dados deve ser o DNA dos esforços de pesquisa – não uma caixa de seleção posterior.

Tecnologia não verificável

Além da falta de supervisão ética independente dos projetos de pesquisa que obtêm financiamento da UE, não há – atualmente e de forma preocupante para pesquisas supostamente voltadas para o comércio – nenhuma maneira de pessoas de fora verificarem de forma independente (ou, bem, falsificarem) a tecnologia envolvida.

No caso da tecnologia iBorderCtrl, nenhum dado significativo sobre os resultados do projeto foi tornado público e os pedidos de dados solicitados ao abrigo da lei de liberdade de informação foram bloqueados por motivos de interesse comercial.

Breyer vem tentando, sem sucesso, obter informações sobre os resultados do projeto desde que foi concluído em 2019. O Guardian relatou em detalhes sua luta em dezembro .

De acordo com a estrutura legal que envolve a pesquisa da UE, ele diz que há apenas uma exigência muito limitada de publicar informações sobre os resultados do projeto – e apenas muito depois do fato. Sua esperança é, portanto, que o Tribunal de Justiça concorde que “interesses comerciais” não podem ser usados ​​para negar amplamente a divulgação de informações de interesse público.

“Eles basicamente argumentam que não há obrigação de examinar se um projeto realmente funciona, então eles têm o direito de financiar pesquisas que não funcionam”, diz ele ao TechCrunch. “Eles também argumentam que basicamente é suficiente excluir o acesso se qualquer publicação das informações prejudicar a capacidade de vender a tecnologia – e essa é uma interpretação extremamente ampla de informações comercialmente sensíveis.

“O que eu aceitaria é excluir informações que realmente contenham segredos comerciais, como código-fonte de programas de software ou cálculos internos ou semelhantes. Mas isso certamente não deve abranger, por exemplo, se um projeto é rotulado como antiético. Não é um segredo comercial, mas obviamente prejudicará sua capacidade de vendê-lo – mas obviamente essa interpretação é escandalosamente ampla ”.

“Espero que esta [ação judicial] seja um precedente para esclarecer que a informação sobre tais tecnologias antiéticas – e também ilegais se fossem realmente utilizadas ou implantadas – cujo direito público de saber tem precedência sobre os interesses comerciais de vender a tecnologia ”, acrescenta. “Eles estão dizendo que não divulgaremos as informações porque isso diminuirá as chances de vender a tecnologia. E então, quando eu vi isso, disse bem, definitivamente vale a pena ir ao tribunal porque eles tratarão todos os pedidos da mesma forma ”.

Organizações da sociedade civil também foram frustradas nas tentativas de obter informações detalhadas sobre o projeto iBorderCtrl. O Intercept relatou em 2019 que pesquisadores do Hermes Center for Transparency and Digital Human Rights, com sede em Milão,  usaram as leis de liberdade de informação para obter  documentos internos sobre o sistema iBorderCtrl, por exemplo, mas as centenas de páginas que eles conseguiram foram fortemente editadas – com muitos apagaram completamente.

“Eu ouvi de [jornalistas] que tentaram em vão descobrir sobre outros projetos de pesquisa duvidosos que eles estão retendo informações massivamente. Mesmo coisas como o relatório de ética ou a avaliação legal – são todas as coisas que não contêm nenhum segredo comercial, como tal ”, continua Breyer. “Não contém nenhum código-fonte, nem nenhuma informação sensível – eles nem mesmo divulgaram parcialmente.

“Acho ultrajante que uma autoridade da UE [a REA] realmente diga que não nos importamos com qual é o interesse nisso, porque assim que puder diminuir as vendas, iremos reter as informações. Não creio que seja aceitável, tanto em termos do interesse dos contribuintes em saber para que está a ser utilizado o seu dinheiro, mas também em termos do interesse científico em poder testar / verificar estas experiências na chamada ‘detecção de engano ‘- o que é muito contestado se realmente funcionar. E para verificá-lo ou falsificá-lo, os cientistas, é claro, precisam ter acesso aos detalhes sobre esses testes.

“Também falando democraticamente, se algum dia o legislador quiser decidir sobre a introdução de tal sistema ou mesmo sobre o enquadramento desses programas de pesquisa, basicamente precisamos saber os detalhes – por exemplo, qual foi o número de falsos positivos? Como isso realmente funciona? Isso tem um efeito discriminatório porque não funciona bem em certos grupos de pessoas, como a tecnologia de reconhecimento facial. Isso é tudo que precisamos saber com urgência ”.

Relativamente ao acesso a documentos relacionados com investigação financiada pela UE, a Comissão remeteu-nos para o Regulamento nº. 1049/2001 – ao qual afirmou “estabelece os princípios e limites gerais” – embora acrescentou que “cada caso é analisado cuidadosa e individualmente”.

No entanto, a interpretação da Comissão dos regulamentos do programa Horizon parece excluir totalmente a aplicação da liberdade de informação – pelo menos no caso do projeto iBorderCtrl.

Segundo Breyer, eles limitam a divulgação pública a um resumo dos resultados da pesquisa – que pode ser publicado cerca de três ou quatro anos após a conclusão do projeto.

“Você verá um ensaio de cinco ou seis páginas em alguma revista científica sobre esse projeto e é claro que não poderá usá-lo para verificar ou falsificar a tecnologia”, diz. “Não dá para ver o que exatamente eles estão fazendo – com quem estão falando. Portanto, este resumo é bastante inútil cientificamente e para o público e democraticamente e leva séculos. Portanto, espero que no futuro possamos obter mais informações e, com sorte, um debate público ”.

O quadro jurídico do programa de investigação da UE é o direito derivado. Portanto, o argumento de Breyer é que uma cláusula geral sobre a proteção de “interesses comerciais” não deve ser capaz de superar os direitos fundamentais da UE à transparência. Mas é claro que caberá ao tribunal decidir.

“Acho que tenho boas chances, especialmente porque a transparência e o acesso à informação é, na verdade, um direito fundamental na UE – está na Carta dos Direitos Fundamentais da UE. E esta legislação Horizon é apenas secundária – eles não podem se desviar do direito primário. E precisam ser interpretados de acordo com ela ”, acrescenta. “Portanto, acho que o tribunal esperançosamente dirá que isso é aplicável e eles farão algum equilíbrio no contexto da liberdade de informação que também protege a informação comercial, mas sujeita aos interesses públicos prevalecentes. Portanto, acho que eles encontrarão um bom compromisso e, espero, uma visão melhor e mais transparência.

“Talvez eles obscureçam algumas partes do documento, redigam algumas, mas certamente espero que, em princípio, tenhamos acesso a isso. E, assim, também certifique-se de que, no futuro, a Comissão e a REA terão que entregar a maior parte do material que foi solicitado nesta pesquisa. Porque há muitos projetos duvidosos por aí ”.

Um melhor sistema de supervisão de projetos de pesquisa poderia começar por ter o comitê que decide sobre os pedidos de financiamento não sendo composto principalmente por representantes da indústria e dos Estados-Membros da UE (que, é claro, sempre vão querer que dinheiro da UE chegue à sua região) – mas também por representantes parlamentares mais representantes da sociedade civil e cientistas, de acordo com Breyer.

“Deve ter participantes independentes e esses devem ser a maioria”, diz. “Isso faria sentido orientar as atividades de pesquisa na direção do bem público, do cumprimento dos nossos valores, da pesquisa útil – porque o que precisamos saber e compreender é uma pesquisa que nunca será usada porque não funciona ou é antiético ou ilegal, que desperdiça dinheiro em outros programas que seriam muito importantes e úteis ”.

Ele também aponta para um novo programa de pesquisa da UE sendo estabelecido com foco na defesa – sob a mesma estrutura, sem o devido escrutínio público das decisões de financiamento ou divulgação de informações, observando: “Eles querem fazer isso também para a defesa. Então isso vai ser até sobre tecnologias letais ”.

Até o momento, as únicas divulgações em torno do iBorderCtrl foram algumas partes das especificações técnicas de seu sistema e parte de um relatório de comunicações, de acordo com Breyer, que observa que ambos foram “fortemente editados”.

“Não dizem, por exemplo, a quais agências de fronteira introduziram esse sistema, não dizem com quais políticos estão falando”, afirma. “O interessante, na verdade, é que parte desse financiamento também está apresentando a tecnologia para autoridades de fronteira na UE e políticos. O que é muito interessante porque a Comissão continua a dizer olhe, isto é apenas investigação; realmente não importa. Mas, na verdade, eles já estão usando o projeto para promover a tecnologia e as vendas dela. E mesmo que isso nunca seja usado nas fronteiras da UE, o financiamento do desenvolvimento significará que ele poderia ser usado por outros governos – poderia ser vendido à China e à Arábia Saudita e assim por diante.

“E também a tecnologia de detecção de engano – a empresa que a está comercializando [uma empresa com sede em Manchester chamada Silent Talker Ltd] – também a está oferecendo a seguradoras, ou para ser usada em entrevistas de emprego, ou talvez se você solicitar um empréstimo num banco. Portanto, essa ideia de que um sistema de IA seria capaz de detectar mentiras corre o risco de ser usado no setor privado de forma muito ampla e, já que estou dizendo que não funciona de jeito nenhum e é basicamente uma loteria, muitas pessoas correm o risco de ter desvantagens com esse duvidoso tecnologia”.

“É ultrajante que ninguém impeça a UE de financiar essa tecnologia de ‘vodu’”, acrescenta.

A Comissão disse-nos que “O O Sistema de Controle Portátil Inteligente de Fronteiras ”(também conhecido como iBorderCtrl )“ explorou novas ideias sobre o aumento da eficiência, conveniência e segurança da travessia de fronteiras terrestres ”e, como todos os projetos de pesquisa de segurança, foi“ destinado a testar novas ideias e tecnologias para enfrentar os desafios de segurança ”.

“ Não se esperava que o iBorderCtrl oferecesse tecnologias ou produtos prontos. Nem todos os projetos de pesquisa levam ao desenvolvimento de tecnologias com aplicações do mundo real. Terminados os projectos de investigação, cabe aos Estados-Membros decidir se pretendem continuar a investigação e / ou desenvolver as soluções estudadas pelo projecto ”, referiu ainda. 

Referiu também que a aplicação específica de qualquer tecnologia futura “terá sempre de respeitar a legislação e salvaguardas da UE e nacionais, incluindo sobre os direitos fundamentais e as regras da UE em matéria de protecção de dados pessoais”.

No entanto, Breyer também critica a Comissão que tenta desviar a atenção do público, alegando que “é apenas P&D” ou que não está decidindo sobre o uso de qualquer tecnologia em particular. “É claro que na prática isso pressiona o legislador a concordar com algo que foi desenvolvido se for útil ou funcionar”, argumenta. “E também se não for usado pela própria UE, será vendido em outro lugar – e por isso acho que a falta de escrutínio e avaliação ética desta pesquisa é realmente escandaloso. Especialmente porque eles desenvolveram e pesquisaram repetidamente tecnologias de vigilância – incluindo vigilância em massa de espaços públicos ”.

“Eles têm projetos na Internet sobre coleta de dados em massa e processamento de dados da Internet. O programa de segurança é muito problemático porque eles pesquisam as interferências nos direitos fundamentais – com o direito à privacidade ”, prossegue. “Não há limitações no programa para descartar métodos antiéticos de vigilância em massa ou similares. E além de não haver limitações materiais, também não existe um quadro institucional que possa excluir tais projetos desde o início. E então, mesmo depois de os programas terem sido concebidos e iniciados, eles se recusarão a revelar o acesso a eles. E isso é realmente ultrajante e, como eu disse, espero que o tribunal faça um balanço adequado e forneça mais informações e, então, possamos basicamente desencadear um debate público sobre o desenho desses esquemas de pesquisa ”.

Apontando novamente para o plano da Comissão de criar um fundo de P&D de defesa sob a mesma estrutura de tomada de decisão centrada na indústria – com um “mecanismo de avaliação ética igualmente deficiente” – ele observa que, embora existam alguns limites para a pesquisa da UE ser capaz de financiar autônomo armas, outras áreas poderiam fazer ofertas para o dinheiro do contribuinte – como armas de destruição em massa e armas nucleares.

“Então isso será extremamente problemático e terá a mesma questão de transparência, ainda mais é claro”, acrescenta.

No que diz respeito à transparência em geral, a Comissão disse-nos que “incentiva sempre os projectos a publicarem tanto quanto possível os seus resultados”. Enquanto, especificamente para iBorderCtrl, disse que mais informações sobre o projeto estão disponíveis no site do CORDIS e no site do projeto dedicado .

Se você reservar um tempo para navegar até a página de “ publicações ” do site iBorderCtrl, você encontrará uma série de “resultados” – incluindo um “consultor de ética”; o “primeiro relatório do assessor de ética”; uma “ética de definição de perfis, o risco de estigmatização dos indivíduos e plano de mitigação”; e um “relatório de revisão legal e ética em toda a UE” – todos listados como “confidenciais”.

Notícia