Tumgik
#direitos humanos na era digital
adriano-ferreira · 2 months
Text
Liberdade de Expressão Digital
A liberdade de expressão digital é um direito fundamental que permite que os indivíduos se expressem livremente, compartilhem ideias e opiniões sem censura ou repressão no ambiente digital. Ela é essencial em uma sociedade conectada, onde as redes sociais e os meios digitais desempenham um papel crucial na comunicação. A liberdade de expressão digital refere-se à capacidade das pessoas de…
View On WordPress
0 notes
debbymatt · 1 year
Text
Aaron Hillel Swartz e o seu HackAtivismo
Tumblr media
Nasceu em: 8 de novembro de 1986, em Illinois, Chicago, Estados Unidos. Era filho de Susan e Robert Swartz, proprietário da empresa Mark Williams Company, que foi uma das pioneiras no lançamento de sistemas operacionais Unix.
Com 12 anos criou um site chamado: TheInfo.org ( Grande Banco de Dados, que funciona como uma espécie de Wikipedia, antes mesmo da criação e lançamento da Wiki) , onde posteriormente, ganhou o Prêmio ArsDigita, para jovens criadores de "websites não comerciais, úteis, educacionais e colaborativas".
Aos 14, se deu a colaboração na invenção do RSS (é um formato de distribuição de informações em tempo real pela internet).
Um ano após, foi admitido no W3C (World Wide Web Consortium), onde foi o autor do RFC 3870. Coautor do Markdown (linguagem voltada para formatação de textos) e fez parte do time que deu origem ao Creative Commons (CC), que já falamos aqui no blog.
Tumblr media
Próximo dos 18, ele ingressou na Universidade de Stanford, na Califórnia, EUA. Já no seu primeiro ano, graças ao financiamento que recebeu do Y Combinator, deu inicio a sua primeira empresa a Infogami (uma espécie de WordPress nos tempos atuais), na qual deu suporte ao seu projeto subsequente, a Open Library (biblioteca digital, colaborativa, aberta), que atualmente, quem é responsável é a Internet Archive ("Museu digital").
Onde em 2006, fundiu sua empresa, a Infogami com o Reddit, durante o desenvolvimento do framework da Infogami e Reddit, foi se criado o web.py (biblioteca em python), no ano seguinte se desligou da empresa, justificativa relatada em seu blog.
Com 25 anos, Swartz fundou a Watchdog.net, “the good government site with teeth,” (o site do bom governo com dentes) para agregar e visualizar dados sobre políticos em exercício.
Naquele mesmo ano, ele escreveu o "Guerilla Open Access Manifesto (Manifesto da Guerrilha do Livre Acesso)." Inclusive, foi onde retirei o trecho que compartilhei aqui na rede, anteriormente a esse post.
Já em 2010, Aaron cofundou a Demand Progress (organização norte-americana de ciberativismo, focada em "conquistar progressivas mudanças na política pública, em especial nas liberdades e direitos civis e reforma governamental." ).
Teve papel ativo no protesto e petição a favor da derrubada da iniciativa de lei  Stop Online Piracy Act (SOPA ou na tradução literal, "Pare com a Pirataria Ilegal").
Segundo uma matéria da Super Abril, que discorre bem sobre esse projeto de lei.
"Na teoria, faz sentido impedir a pirataria. Todo mundo sabe que é contra a lei. Mas os dois projetos vão bem além disso e não vão afetar só os sites norte-americanos. Entenda alguns motivos do protesto:
Os projetos dão ao governo liberdade para pedir ao Google e outras ferramentas de busca para excluir determinados sites do resultado das pesquisas. Ou seja, o governo poderia ter controle sobre a lista de links que você pode acessar quando joga uma coisa no Google.
O governo também pode pedir aos grandes provedores de internet para bloquear o acesso a alguns sites para os seus usuários. É exatamente a mesma estratégia usada para censurar conteúdos adultos ou políticos na Síria e na China.
Se o governo descobrir que você encontrou uma ferramenta online que burla o bloqueio, ele também pode bani-la. O problema é que algumas dessas ferramentas são bem úteis a grupos que lutam pelos direitos humanos em lugares onde há censura.
A proposta também pode impedir que empresas façam propaganda em sites que façam parte da lista negra do governo.
Se você realmente precisar das informações da Wikipedia, pode dar um jeito de driblar o bloqueio. Mas, no futuro, isso pode não ser mais possível."
Por Otavio Cohen Atualizado em 21 dez 2016, 10h16 - Publicado em 18 jan 2012, 11h37.
Retomando, graças as ofensivas de personagens históricos como Aaron, o projeto de lei foi anulada.
Adjunto a  Virgil Griffith, Swartz trabalhou no design e a implementação do Tor2web, o que viria a ser futuramente, o que conhecemos como o Browser Tor, que visa a privacidade e o anonimato, muito conhecido por proporcionar o acesso a Deep Web.
Aaron foi “incriminado” por ter copiado, em 2011, 4,8 milhões de artigos científicos do repositório JSTOR, através de um acesso do Massachusetts Institute of Technology – MIT.
Ele não chegou a distribuir os arquivos na rede, muito menos obteve algum lucro com isso. Seu objetivo foi protestar contra o sistema de controle e mercantilização do conhecimento.
No qual, para um usuário comum obter acesso aos artigos, era cobrado 8 centavos por página, para uma empresa que desde a sua fundação detinha o titulo de ser sem fins lucrativos e  livre, pois os documentos federais não são abrangidos pelos direitos de autor.
Consequentemente, nenhum autor recebe remuneração por essas vendas, sem falar que na maioria das vezes as pesquisas são financiadas com dinheiro público.
Após Carl Malamud, fundador da Public.Resource.Org, incitar e liberar o acesso e download destes arquivos, em apenas 17 bibliotecas que tem acesso ao PACER, em sua entrevista ao The New York Times.
Swartz usou o script de computador Perl rodando num servidor em nuvem da Amazon para baixar os documentos, usando as credenciais da biblioteca de Sacramento.
É importante frisar que a PACER ainda cobra por página, mas os clientes que usam o Firefox tem a opção de salvar os documentos para acesso público livre com um plug-in, chamado RECAP.
Na noite de 6 de janeiro de 2011, Swartz foi preso próximo ao campus de Harvard pela polícia do MIT e agentes secretos do Estados Unidos. Ele foi indiciado no Tribunal do Distrito de Massachusetts por duas acusações estaduais: arrombamento e invasão com intenção de cometer um crime.
Não irei descrever todo o laudo do processo, mas vocês poder encontrar notícias que documentaram toda essa parte, neste link.
Swartz cometeu suicídio em 11 de janeiro de 2013. Após sua morte, os procuradores federais retiraram as acusações.
Disponibilizarei na referência links para paginas, documentários, noticias sobre o caso, etc.
Dúvidas, sugestões, opiniões, deixem nos comentários, obrigada por lerem até aqui e até logo.
Para saber mais sobre a história de Aaron:
Aaron Swartz - Wikipedia
Aaron Swartz e a luta pelo conhecimento livre
Documentárrio: O Menino da Internet: A História de Aaron Swartz - Dublado PT-BR - Versão Completa
Filme: Killswitch
Experiência trabalhando num escritório - relato no blog
Hackers: Aaron Swartz e Alexandra Elbakyan | Nerdologia Tech
Podcast: Engenharia Reversa - Ep.01 - Aaron Swartz, a história do ativista e co-criador do Reddit e do RSS
Relato sobre depressão em seu blog
Sci-Hub e a pirataria acadêmica (#Pirula​ 218)
Vídeo de vigilância do MIT que levou à prisão de Aaron Swartz
Plataformas e Projetos que ele criou ou foi cofundador:
Blog de Aaron: PENSAMENTO BRUTO
Creative Commons (CC)
Demand Progress
Guerilla Open Access Manifesto
Markdown
Open Library
Repositório: TheInfo.org
RSS
Reddit
Web.py - relato do blog
Criado em sua Homenagem: Instituto Aaron Swartz
8 notes · View notes
da5vi · 1 year
Text
Atualizações bizarras de Hollywood
Rise of the Pink Ladies, a prequel de Grease, está concorrendo a DOIS EMMYS. Isso mesmo! É uma de duas séries que está concorrendo esse ano e que foram removidas de seus devidos streamings — a diferença é que a outra tem seus capítulos disponíveis para a compra digital. Há uma campanha em andamento (@saveourpinks no Instagram e aparentemente no tumblr também) para arrumar um novo canal pra série, quem puder ajudar… (já havia falado sobre há alguns dias)
É a primeira vez que algo desse tipo acontece no Emmy, e as nomeações reafirmam a qualidade e competência da série, cujo a trilha sonora também está emplacando números na Billboard.
Essa remoção de conteúdo original dos serviços de streaming foi uma das últimas porcalhadas criadas pelas majors nessa briga pelo espaço aberto com o sucesso da Netflix.
E piorando o que já não tinha mais como piorar, os estúdios não entraram em acordo com o SAG AFTRA (a união trabalhista de atores e profissionais do rádio) ontem. A partir de hoje, nenhum ator deverá fazer absolutamente NADA, nem divulgação de material. A ordem é pra sequer ir à Comic Con San Diego.
Os atores se juntam aos roteiristas na greve, e suas demandas são bem semelhantes: pedir compensação residual maior dos streamings, uma vez que os últimos roteiristas de séries de sucesso como Abbot Elementary não conseguem, por exemplo, viver somente dessa profissao por receberem centavos pelas “exibições” em plataformas digitais. Atores também demandam compensação melhor por situação parecida (há pouquíssimos que fogem dessa norma, como Margot Robbie que deve estar nadando em dinheiro hoje em dia. A maioria precisa desses residuais e os cheques, com o streaming, tem ficado ridiculamente menores).
Ambos exigem regulamentação de inteligências artificiais: os atores para evitar que sua imagem seja utilizada sem o consentimento e/ou compensação devida, ou até que empregos se tornem escassos se alguém tiver a brilhante ideia de ressuscitar a aparência de estrelas clássicas já falecidas (e que não tiveram o direito de vetar esse absurdo por terem vivido uma época em que isso era impensável). Se vocês acham que é papo furado, saibam que já aconteceu de quererem fazer um filme de guerra nos anos recentes com JAMES DEAN.
Já os roteiristas querem evitar que estúdios passem a substituir sua mão de obra por scripts gerados por inteligências artificiais. É algo absurdo de se pensar, pois mesmo que as inteligências evoluam a ponto de entregarem algo minimamente coeso, faltará o input humano/emocional para dar o gás necessário… mas estamos falando do conglomerado de empresas que nos deu Transformers 2: gravado durante a greve dos roteiristas de 2007, o roteiro foi finalizado usando técnicas aleatorias que garantiram seu lançamento no tempo certo, mas se tornou uma grande piada para a crítica e os próprios fãs (ainda deu uma bilheteria gorda, no entanto).
É a primeira vez que o SAG e o WGA estão simultaneamente em greve desde 1960. Foi solicitado interferência federal nas negociações, pois a ordem dos estúdios — pelo menos no tocante aos roteiristas — é esperar todo mundo ficar sem dinheiro, morrendo de fome, para desmantelar a união de roteiristas e impedir que esses direitos sejam compensados.
A greve poderá atrasar e/ou acabar algumas produções já em andamento.
3 notes · View notes
vilaoperaria · 16 days
Text
Na era digital, a privacidade dos dados é uma preocupação primordial e regulamentos como o Regulamento Geral de Proteção de Dados (RGPD) visam proteger os dados pessoais dos indivíduos. No entanto, o advento de grandes modelos de linguagem (LLMs), como GPT-4, BERT e seus similares, representa desafios significativos para a aplicação do GDPR. Esses modelos, que geram texto prevendo o próximo token com base em padrões em grandes quantidades de dados de treinamento, complicam inerentemente o cenário regulatório. Veja por que aplicar o GDPR em LLMs é praticamente impossível. A natureza dos LLMs e do armazenamento de dados Para compreender o dilema da fiscalização, é essencial compreender como funcionam os LLMs. Ao contrário dos bancos de dados tradicionais, onde os dados são armazenados de forma estruturada, os LLMs operam de forma diferente. Eles são treinados em conjuntos de dados massivos e, por meio desse treinamento, ajustam milhões ou até bilhões de parâmetros (pesos e vieses). Esses parâmetros capturam padrões e conhecimentos intrincados dos dados, mas não armazenam os dados em si de forma recuperável. Quando um LLM gera texto, ele não acessa um banco de dados de frases ou sentenças armazenadas. Em vez disso, ele usa seus parâmetros aprendidos para prever a próxima palavra mais provável em uma sequência. Este processo é semelhante ao modo como um ser humano pode gerar texto com base em padrões de linguagem aprendidos, em vez de recordar frases exatas da memória. O direito de ser esquecido Um dos direitos fundamentais do GDPR é o “direito ao esquecimento”, permitindo que os indivíduos solicitem a exclusão dos seus dados pessoais. Nos sistemas tradicionais de armazenamento de dados, isso significa localizar e apagar entradas de dados específicas. No entanto, com os LLMs, é praticamente impossível identificar e remover dados pessoais específicos incorporados nos parâmetros do modelo. Os dados não são armazenados explicitamente, mas, em vez disso, são difundidos por inúmeros parâmetros de uma forma que não podem ser acessados ​​ou alterados individualmente. Eliminação de dados e reciclagem de modelo Mesmo que fosse teoricamente possível identificar pontos de dados específicos dentro de um LLM, apagá-los seria outro desafio monumental. A remoção de dados de um LLM exigiria um novo treinamento do modelo, o que é um processo caro e demorado. A reciclagem do zero para excluir determinados dados exigiria os mesmos extensos recursos inicialmente utilizados, incluindo poder e tempo computacional, tornando-o impraticável. O enigma da aplicação do GDPR em LLMs Anonimização e Minimização de Dados O GDPR também enfatiza a anonimização e minimização de dados. Embora os LLMs possam ser treinados em dados anonimizados, é difícil garantir o anonimato completo. Às vezes, os dados anonimizados ainda podem revelar informações pessoais quando combinados com outros dados, levando a uma potencial reidentificação. Além disso, os LLM necessitam de grandes quantidades de dados para funcionarem eficazmente, o que entra em conflito com o princípio da minimização de dados. Falta de transparência e explicabilidade Outro requisito do GDPR é a capacidade de explicar como os dados pessoais são usados ​​e como as decisões são tomadas. Os LLMs, no entanto, são frequentemente chamados de “caixas pretas” porque os seus processos de tomada de decisão não são transparentes. Compreender por que um modelo gerou um determinado trecho de texto envolve decifrar interações complexas entre vários parâmetros, uma tarefa que está além das capacidades técnicas atuais. Esta falta de explicabilidade dificulta o cumprimento dos requisitos de transparência do RGPD. O enigma da aplicação do GDPR em LLMs Seguindo em Frente: Adaptações Regulatórias e Técnicas Dados estes desafios, a aplicação do GDPR nos LLMs requer adaptações regulamentares e técnicas. Os reguladores precisam de desenvolver directrizes que tenham em conta a natureza única dos LLMs, concentrando-se potencialmente
na utilização ética da IA ​​e na implementação de medidas robustas de protecção de dados durante a formação e implementação de modelos. Tecnologicamente, os avanços na interpretabilidade e controle do modelo poderiam ajudar na conformidade. Técnicas para tornar os LLMs mais transparentes e métodos para rastrear a proveniência dos dados dentro dos modelos são áreas de pesquisa contínua. Além disso, a privacidade diferencial, que garante que a remoção ou adição de um único ponto de dados não afeta significativamente o resultado do modelo, poderia ser um passo para alinhar as práticas de LLM com os princípios do GDPR. A aplicação do GDPR no domínio dos LLMs está repleta de complexidades devido à natureza fundamental de como estes modelos funcionam. A difusão de dados através de milhões de parâmetros, a impraticabilidade do apagamento de dados e a falta de transparência contribuem para a quase impossibilidade de conformidade estrita com o GDPR. À medida que os LLMs continuam a evoluir e a tornar-se mais integrados em várias aplicações, um esforço colaborativo entre tecnólogos e reguladores será crucial para desenvolver estruturas que protejam os dados dos utilizadores, reconhecendo ao mesmo tempo os desafios únicos colocados por estes modelos pode   O enigma da aplicação do GDPR em LLMs https://w3b.com.br/o-enigma-da-aplicacao-do-gdpr-em-llms/?feed_id=11271&_unique_id=6664dff802b21
0 notes
w3bcombr · 16 days
Text
Na era digital, a privacidade dos dados é uma preocupação primordial e regulamentos como o Regulamento Geral de Proteção de Dados (RGPD) visam proteger os dados pessoais dos indivíduos. No entanto, o advento de grandes modelos de linguagem (LLMs), como GPT-4, BERT e seus similares, representa desafios significativos para a aplicação do GDPR. Esses modelos, que geram texto prevendo o próximo token com base em padrões em grandes quantidades de dados de treinamento, complicam inerentemente o cenário regulatório. Veja por que aplicar o GDPR em LLMs é praticamente impossível. A natureza dos LLMs e do armazenamento de dados Para compreender o dilema da fiscalização, é essencial compreender como funcionam os LLMs. Ao contrário dos bancos de dados tradicionais, onde os dados são armazenados de forma estruturada, os LLMs operam de forma diferente. Eles são treinados em conjuntos de dados massivos e, por meio desse treinamento, ajustam milhões ou até bilhões de parâmetros (pesos e vieses). Esses parâmetros capturam padrões e conhecimentos intrincados dos dados, mas não armazenam os dados em si de forma recuperável. Quando um LLM gera texto, ele não acessa um banco de dados de frases ou sentenças armazenadas. Em vez disso, ele usa seus parâmetros aprendidos para prever a próxima palavra mais provável em uma sequência. Este processo é semelhante ao modo como um ser humano pode gerar texto com base em padrões de linguagem aprendidos, em vez de recordar frases exatas da memória. O direito de ser esquecido Um dos direitos fundamentais do GDPR é o “direito ao esquecimento”, permitindo que os indivíduos solicitem a exclusão dos seus dados pessoais. Nos sistemas tradicionais de armazenamento de dados, isso significa localizar e apagar entradas de dados específicas. No entanto, com os LLMs, é praticamente impossível identificar e remover dados pessoais específicos incorporados nos parâmetros do modelo. Os dados não são armazenados explicitamente, mas, em vez disso, são difundidos por inúmeros parâmetros de uma forma que não podem ser acessados ​​ou alterados individualmente. Eliminação de dados e reciclagem de modelo Mesmo que fosse teoricamente possível identificar pontos de dados específicos dentro de um LLM, apagá-los seria outro desafio monumental. A remoção de dados de um LLM exigiria um novo treinamento do modelo, o que é um processo caro e demorado. A reciclagem do zero para excluir determinados dados exigiria os mesmos extensos recursos inicialmente utilizados, incluindo poder e tempo computacional, tornando-o impraticável. O enigma da aplicação do GDPR em LLMs Anonimização e Minimização de Dados O GDPR também enfatiza a anonimização e minimização de dados. Embora os LLMs possam ser treinados em dados anonimizados, é difícil garantir o anonimato completo. Às vezes, os dados anonimizados ainda podem revelar informações pessoais quando combinados com outros dados, levando a uma potencial reidentificação. Além disso, os LLM necessitam de grandes quantidades de dados para funcionarem eficazmente, o que entra em conflito com o princípio da minimização de dados. Falta de transparência e explicabilidade Outro requisito do GDPR é a capacidade de explicar como os dados pessoais são usados ​​e como as decisões são tomadas. Os LLMs, no entanto, são frequentemente chamados de “caixas pretas” porque os seus processos de tomada de decisão não são transparentes. Compreender por que um modelo gerou um determinado trecho de texto envolve decifrar interações complexas entre vários parâmetros, uma tarefa que está além das capacidades técnicas atuais. Esta falta de explicabilidade dificulta o cumprimento dos requisitos de transparência do RGPD. O enigma da aplicação do GDPR em LLMs Seguindo em Frente: Adaptações Regulatórias e Técnicas Dados estes desafios, a aplicação do GDPR nos LLMs requer adaptações regulamentares e técnicas. Os reguladores precisam de desenvolver directrizes que tenham em conta a natureza única dos LLMs, concentrando-se potencialmente
na utilização ética da IA ​​e na implementação de medidas robustas de protecção de dados durante a formação e implementação de modelos. Tecnologicamente, os avanços na interpretabilidade e controle do modelo poderiam ajudar na conformidade. Técnicas para tornar os LLMs mais transparentes e métodos para rastrear a proveniência dos dados dentro dos modelos são áreas de pesquisa contínua. Além disso, a privacidade diferencial, que garante que a remoção ou adição de um único ponto de dados não afeta significativamente o resultado do modelo, poderia ser um passo para alinhar as práticas de LLM com os princípios do GDPR. A aplicação do GDPR no domínio dos LLMs está repleta de complexidades devido à natureza fundamental de como estes modelos funcionam. A difusão de dados através de milhões de parâmetros, a impraticabilidade do apagamento de dados e a falta de transparência contribuem para a quase impossibilidade de conformidade estrita com o GDPR. À medida que os LLMs continuam a evoluir e a tornar-se mais integrados em várias aplicações, um esforço colaborativo entre tecnólogos e reguladores será crucial para desenvolver estruturas que protejam os dados dos utilizadores, reconhecendo ao mesmo tempo os desafios únicos colocados por estes modelos pode   O enigma da aplicação do GDPR em LLMs
0 notes
unicalingerieshop · 16 days
Text
Na era digital, a privacidade dos dados é uma preocupação primordial e regulamentos como o Regulamento Geral de Proteção de Dados (RGPD) visam proteger os dados pessoais dos indivíduos. No entanto, o advento de grandes modelos de linguagem (LLMs), como GPT-4, BERT e seus similares, representa desafios significativos para a aplicação do GDPR. Esses modelos, que geram texto prevendo o próximo token com base em padrões em grandes quantidades de dados de treinamento, complicam inerentemente o cenário regulatório. Veja por que aplicar o GDPR em LLMs é praticamente impossível. A natureza dos LLMs e do armazenamento de dados Para compreender o dilema da fiscalização, é essencial compreender como funcionam os LLMs. Ao contrário dos bancos de dados tradicionais, onde os dados são armazenados de forma estruturada, os LLMs operam de forma diferente. Eles são treinados em conjuntos de dados massivos e, por meio desse treinamento, ajustam milhões ou até bilhões de parâmetros (pesos e vieses). Esses parâmetros capturam padrões e conhecimentos intrincados dos dados, mas não armazenam os dados em si de forma recuperável. Quando um LLM gera texto, ele não acessa um banco de dados de frases ou sentenças armazenadas. Em vez disso, ele usa seus parâmetros aprendidos para prever a próxima palavra mais provável em uma sequência. Este processo é semelhante ao modo como um ser humano pode gerar texto com base em padrões de linguagem aprendidos, em vez de recordar frases exatas da memória. O direito de ser esquecido Um dos direitos fundamentais do GDPR é o “direito ao esquecimento”, permitindo que os indivíduos solicitem a exclusão dos seus dados pessoais. Nos sistemas tradicionais de armazenamento de dados, isso significa localizar e apagar entradas de dados específicas. No entanto, com os LLMs, é praticamente impossível identificar e remover dados pessoais específicos incorporados nos parâmetros do modelo. Os dados não são armazenados explicitamente, mas, em vez disso, são difundidos por inúmeros parâmetros de uma forma que não podem ser acessados ​​ou alterados individualmente. Eliminação de dados e reciclagem de modelo Mesmo que fosse teoricamente possível identificar pontos de dados específicos dentro de um LLM, apagá-los seria outro desafio monumental. A remoção de dados de um LLM exigiria um novo treinamento do modelo, o que é um processo caro e demorado. A reciclagem do zero para excluir determinados dados exigiria os mesmos extensos recursos inicialmente utilizados, incluindo poder e tempo computacional, tornando-o impraticável. O enigma da aplicação do GDPR em LLMs Anonimização e Minimização de Dados O GDPR também enfatiza a anonimização e minimização de dados. Embora os LLMs possam ser treinados em dados anonimizados, é difícil garantir o anonimato completo. Às vezes, os dados anonimizados ainda podem revelar informações pessoais quando combinados com outros dados, levando a uma potencial reidentificação. Além disso, os LLM necessitam de grandes quantidades de dados para funcionarem eficazmente, o que entra em conflito com o princípio da minimização de dados. Falta de transparência e explicabilidade Outro requisito do GDPR é a capacidade de explicar como os dados pessoais são usados ​​e como as decisões são tomadas. Os LLMs, no entanto, são frequentemente chamados de “caixas pretas” porque os seus processos de tomada de decisão não são transparentes. Compreender por que um modelo gerou um determinado trecho de texto envolve decifrar interações complexas entre vários parâmetros, uma tarefa que está além das capacidades técnicas atuais. Esta falta de explicabilidade dificulta o cumprimento dos requisitos de transparência do RGPD. O enigma da aplicação do GDPR em LLMs Seguindo em Frente: Adaptações Regulatórias e Técnicas Dados estes desafios, a aplicação do GDPR nos LLMs requer adaptações regulamentares e técnicas. Os reguladores precisam de desenvolver directrizes que tenham em conta a natureza única dos LLMs, concentrando-se potencialmente
na utilização ética da IA ​​e na implementação de medidas robustas de protecção de dados durante a formação e implementação de modelos. Tecnologicamente, os avanços na interpretabilidade e controle do modelo poderiam ajudar na conformidade. Técnicas para tornar os LLMs mais transparentes e métodos para rastrear a proveniência dos dados dentro dos modelos são áreas de pesquisa contínua. Além disso, a privacidade diferencial, que garante que a remoção ou adição de um único ponto de dados não afeta significativamente o resultado do modelo, poderia ser um passo para alinhar as práticas de LLM com os princípios do GDPR. A aplicação do GDPR no domínio dos LLMs está repleta de complexidades devido à natureza fundamental de como estes modelos funcionam. A difusão de dados através de milhões de parâmetros, a impraticabilidade do apagamento de dados e a falta de transparência contribuem para a quase impossibilidade de conformidade estrita com o GDPR. À medida que os LLMs continuam a evoluir e a tornar-se mais integrados em várias aplicações, um esforço colaborativo entre tecnólogos e reguladores será crucial para desenvolver estruturas que protejam os dados dos utilizadores, reconhecendo ao mesmo tempo os desafios únicos colocados por estes modelos pode   O enigma da aplicação do GDPR em LLMs
0 notes
bureauinvestigacoes · 16 days
Text
Na era digital, a privacidade dos dados é uma preocupação primordial e regulamentos como o Regulamento Geral de Proteção de Dados (RGPD) visam proteger os dados pessoais dos indivíduos. No entanto, o advento de grandes modelos de linguagem (LLMs), como GPT-4, BERT e seus similares, representa desafios significativos para a aplicação do GDPR. Esses modelos, que geram texto prevendo o próximo token com base em padrões em grandes quantidades de dados de treinamento, complicam inerentemente o cenário regulatório. Veja por que aplicar o GDPR em LLMs é praticamente impossível. A natureza dos LLMs e do armazenamento de dados Para compreender o dilema da fiscalização, é essencial compreender como funcionam os LLMs. Ao contrário dos bancos de dados tradicionais, onde os dados são armazenados de forma estruturada, os LLMs operam de forma diferente. Eles são treinados em conjuntos de dados massivos e, por meio desse treinamento, ajustam milhões ou até bilhões de parâmetros (pesos e vieses). Esses parâmetros capturam padrões e conhecimentos intrincados dos dados, mas não armazenam os dados em si de forma recuperável. Quando um LLM gera texto, ele não acessa um banco de dados de frases ou sentenças armazenadas. Em vez disso, ele usa seus parâmetros aprendidos para prever a próxima palavra mais provável em uma sequência. Este processo é semelhante ao modo como um ser humano pode gerar texto com base em padrões de linguagem aprendidos, em vez de recordar frases exatas da memória. O direito de ser esquecido Um dos direitos fundamentais do GDPR é o “direito ao esquecimento”, permitindo que os indivíduos solicitem a exclusão dos seus dados pessoais. Nos sistemas tradicionais de armazenamento de dados, isso significa localizar e apagar entradas de dados específicas. No entanto, com os LLMs, é praticamente impossível identificar e remover dados pessoais específicos incorporados nos parâmetros do modelo. Os dados não são armazenados explicitamente, mas, em vez disso, são difundidos por inúmeros parâmetros de uma forma que não podem ser acessados ​​ou alterados individualmente. Eliminação de dados e reciclagem de modelo Mesmo que fosse teoricamente possível identificar pontos de dados específicos dentro de um LLM, apagá-los seria outro desafio monumental. A remoção de dados de um LLM exigiria um novo treinamento do modelo, o que é um processo caro e demorado. A reciclagem do zero para excluir determinados dados exigiria os mesmos extensos recursos inicialmente utilizados, incluindo poder e tempo computacional, tornando-o impraticável. O enigma da aplicação do GDPR em LLMs Anonimização e Minimização de Dados O GDPR também enfatiza a anonimização e minimização de dados. Embora os LLMs possam ser treinados em dados anonimizados, é difícil garantir o anonimato completo. Às vezes, os dados anonimizados ainda podem revelar informações pessoais quando combinados com outros dados, levando a uma potencial reidentificação. Além disso, os LLM necessitam de grandes quantidades de dados para funcionarem eficazmente, o que entra em conflito com o princípio da minimização de dados. Falta de transparência e explicabilidade Outro requisito do GDPR é a capacidade de explicar como os dados pessoais são usados ​​e como as decisões são tomadas. Os LLMs, no entanto, são frequentemente chamados de “caixas pretas” porque os seus processos de tomada de decisão não são transparentes. Compreender por que um modelo gerou um determinado trecho de texto envolve decifrar interações complexas entre vários parâmetros, uma tarefa que está além das capacidades técnicas atuais. Esta falta de explicabilidade dificulta o cumprimento dos requisitos de transparência do RGPD. O enigma da aplicação do GDPR em LLMs Seguindo em Frente: Adaptações Regulatórias e Técnicas Dados estes desafios, a aplicação do GDPR nos LLMs requer adaptações regulamentares e técnicas. Os reguladores precisam de desenvolver directrizes que tenham em conta a natureza única dos LLMs, concentrando-se potencialmente
na utilização ética da IA ​​e na implementação de medidas robustas de protecção de dados durante a formação e implementação de modelos. Tecnologicamente, os avanços na interpretabilidade e controle do modelo poderiam ajudar na conformidade. Técnicas para tornar os LLMs mais transparentes e métodos para rastrear a proveniência dos dados dentro dos modelos são áreas de pesquisa contínua. Além disso, a privacidade diferencial, que garante que a remoção ou adição de um único ponto de dados não afeta significativamente o resultado do modelo, poderia ser um passo para alinhar as práticas de LLM com os princípios do GDPR. A aplicação do GDPR no domínio dos LLMs está repleta de complexidades devido à natureza fundamental de como estes modelos funcionam. A difusão de dados através de milhões de parâmetros, a impraticabilidade do apagamento de dados e a falta de transparência contribuem para a quase impossibilidade de conformidade estrita com o GDPR. À medida que os LLMs continuam a evoluir e a tornar-se mais integrados em várias aplicações, um esforço colaborativo entre tecnólogos e reguladores será crucial para desenvolver estruturas que protejam os dados dos utilizadores, reconhecendo ao mesmo tempo os desafios únicos colocados por estes modelos pode   O enigma da aplicação do GDPR em LLMs
0 notes
brasinhaambiental · 16 days
Text
Na era digital, a privacidade dos dados é uma preocupação primordial e regulamentos como o Regulamento Geral de Proteção de Dados (RGPD) visam proteger os dados pessoais dos indivíduos. No entanto, o advento de grandes modelos de linguagem (LLMs), como GPT-4, BERT e seus similares, representa desafios significativos para a aplicação do GDPR. Esses modelos, que geram texto prevendo o próximo token com base em padrões em grandes quantidades de dados de treinamento, complicam inerentemente o cenário regulatório. Veja por que aplicar o GDPR em LLMs é praticamente impossível. A natureza dos LLMs e do armazenamento de dados Para compreender o dilema da fiscalização, é essencial compreender como funcionam os LLMs. Ao contrário dos bancos de dados tradicionais, onde os dados são armazenados de forma estruturada, os LLMs operam de forma diferente. Eles são treinados em conjuntos de dados massivos e, por meio desse treinamento, ajustam milhões ou até bilhões de parâmetros (pesos e vieses). Esses parâmetros capturam padrões e conhecimentos intrincados dos dados, mas não armazenam os dados em si de forma recuperável. Quando um LLM gera texto, ele não acessa um banco de dados de frases ou sentenças armazenadas. Em vez disso, ele usa seus parâmetros aprendidos para prever a próxima palavra mais provável em uma sequência. Este processo é semelhante ao modo como um ser humano pode gerar texto com base em padrões de linguagem aprendidos, em vez de recordar frases exatas da memória. O direito de ser esquecido Um dos direitos fundamentais do GDPR é o “direito ao esquecimento”, permitindo que os indivíduos solicitem a exclusão dos seus dados pessoais. Nos sistemas tradicionais de armazenamento de dados, isso significa localizar e apagar entradas de dados específicas. No entanto, com os LLMs, é praticamente impossível identificar e remover dados pessoais específicos incorporados nos parâmetros do modelo. Os dados não são armazenados explicitamente, mas, em vez disso, são difundidos por inúmeros parâmetros de uma forma que não podem ser acessados ​​ou alterados individualmente. Eliminação de dados e reciclagem de modelo Mesmo que fosse teoricamente possível identificar pontos de dados específicos dentro de um LLM, apagá-los seria outro desafio monumental. A remoção de dados de um LLM exigiria um novo treinamento do modelo, o que é um processo caro e demorado. A reciclagem do zero para excluir determinados dados exigiria os mesmos extensos recursos inicialmente utilizados, incluindo poder e tempo computacional, tornando-o impraticável. O enigma da aplicação do GDPR em LLMs Anonimização e Minimização de Dados O GDPR também enfatiza a anonimização e minimização de dados. Embora os LLMs possam ser treinados em dados anonimizados, é difícil garantir o anonimato completo. Às vezes, os dados anonimizados ainda podem revelar informações pessoais quando combinados com outros dados, levando a uma potencial reidentificação. Além disso, os LLM necessitam de grandes quantidades de dados para funcionarem eficazmente, o que entra em conflito com o princípio da minimização de dados. Falta de transparência e explicabilidade Outro requisito do GDPR é a capacidade de explicar como os dados pessoais são usados ​​e como as decisões são tomadas. Os LLMs, no entanto, são frequentemente chamados de “caixas pretas” porque os seus processos de tomada de decisão não são transparentes. Compreender por que um modelo gerou um determinado trecho de texto envolve decifrar interações complexas entre vários parâmetros, uma tarefa que está além das capacidades técnicas atuais. Esta falta de explicabilidade dificulta o cumprimento dos requisitos de transparência do RGPD. O enigma da aplicação do GDPR em LLMs Seguindo em Frente: Adaptações Regulatórias e Técnicas Dados estes desafios, a aplicação do GDPR nos LLMs requer adaptações regulamentares e técnicas. Os reguladores precisam de desenvolver directrizes que tenham em conta a natureza única dos LLMs, concentrando-se potencialmente
na utilização ética da IA ​​e na implementação de medidas robustas de protecção de dados durante a formação e implementação de modelos. Tecnologicamente, os avanços na interpretabilidade e controle do modelo poderiam ajudar na conformidade. Técnicas para tornar os LLMs mais transparentes e métodos para rastrear a proveniência dos dados dentro dos modelos são áreas de pesquisa contínua. Além disso, a privacidade diferencial, que garante que a remoção ou adição de um único ponto de dados não afeta significativamente o resultado do modelo, poderia ser um passo para alinhar as práticas de LLM com os princípios do GDPR. A aplicação do GDPR no domínio dos LLMs está repleta de complexidades devido à natureza fundamental de como estes modelos funcionam. A difusão de dados através de milhões de parâmetros, a impraticabilidade do apagamento de dados e a falta de transparência contribuem para a quase impossibilidade de conformidade estrita com o GDPR. À medida que os LLMs continuam a evoluir e a tornar-se mais integrados em várias aplicações, um esforço colaborativo entre tecnólogos e reguladores será crucial para desenvolver estruturas que protejam os dados dos utilizadores, reconhecendo ao mesmo tempo os desafios únicos colocados por estes modelos pode   O enigma da aplicação do GDPR em LLMs
0 notes
arabiansweet · 16 days
Text
Na era digital, a privacidade dos dados é uma preocupação primordial e regulamentos como o Regulamento Geral de Proteção de Dados (RGPD) visam proteger os dados pessoais dos indivíduos. No entanto, o advento de grandes modelos de linguagem (LLMs), como GPT-4, BERT e seus similares, representa desafios significativos para a aplicação do GDPR. Esses modelos, que geram texto prevendo o próximo token com base em padrões em grandes quantidades de dados de treinamento, complicam inerentemente o cenário regulatório. Veja por que aplicar o GDPR em LLMs é praticamente impossível. A natureza dos LLMs e do armazenamento de dados Para compreender o dilema da fiscalização, é essencial compreender como funcionam os LLMs. Ao contrário dos bancos de dados tradicionais, onde os dados são armazenados de forma estruturada, os LLMs operam de forma diferente. Eles são treinados em conjuntos de dados massivos e, por meio desse treinamento, ajustam milhões ou até bilhões de parâmetros (pesos e vieses). Esses parâmetros capturam padrões e conhecimentos intrincados dos dados, mas não armazenam os dados em si de forma recuperável. Quando um LLM gera texto, ele não acessa um banco de dados de frases ou sentenças armazenadas. Em vez disso, ele usa seus parâmetros aprendidos para prever a próxima palavra mais provável em uma sequência. Este processo é semelhante ao modo como um ser humano pode gerar texto com base em padrões de linguagem aprendidos, em vez de recordar frases exatas da memória. O direito de ser esquecido Um dos direitos fundamentais do GDPR é o “direito ao esquecimento”, permitindo que os indivíduos solicitem a exclusão dos seus dados pessoais. Nos sistemas tradicionais de armazenamento de dados, isso significa localizar e apagar entradas de dados específicas. No entanto, com os LLMs, é praticamente impossível identificar e remover dados pessoais específicos incorporados nos parâmetros do modelo. Os dados não são armazenados explicitamente, mas, em vez disso, são difundidos por inúmeros parâmetros de uma forma que não podem ser acessados ​​ou alterados individualmente. Eliminação de dados e reciclagem de modelo Mesmo que fosse teoricamente possível identificar pontos de dados específicos dentro de um LLM, apagá-los seria outro desafio monumental. A remoção de dados de um LLM exigiria um novo treinamento do modelo, o que é um processo caro e demorado. A reciclagem do zero para excluir determinados dados exigiria os mesmos extensos recursos inicialmente utilizados, incluindo poder e tempo computacional, tornando-o impraticável. O enigma da aplicação do GDPR em LLMs Anonimização e Minimização de Dados O GDPR também enfatiza a anonimização e minimização de dados. Embora os LLMs possam ser treinados em dados anonimizados, é difícil garantir o anonimato completo. Às vezes, os dados anonimizados ainda podem revelar informações pessoais quando combinados com outros dados, levando a uma potencial reidentificação. Além disso, os LLM necessitam de grandes quantidades de dados para funcionarem eficazmente, o que entra em conflito com o princípio da minimização de dados. Falta de transparência e explicabilidade Outro requisito do GDPR é a capacidade de explicar como os dados pessoais são usados ​​e como as decisões são tomadas. Os LLMs, no entanto, são frequentemente chamados de “caixas pretas” porque os seus processos de tomada de decisão não são transparentes. Compreender por que um modelo gerou um determinado trecho de texto envolve decifrar interações complexas entre vários parâmetros, uma tarefa que está além das capacidades técnicas atuais. Esta falta de explicabilidade dificulta o cumprimento dos requisitos de transparência do RGPD. O enigma da aplicação do GDPR em LLMs Seguindo em Frente: Adaptações Regulatórias e Técnicas Dados estes desafios, a aplicação do GDPR nos LLMs requer adaptações regulamentares e técnicas. Os reguladores precisam de desenvolver directrizes que tenham em conta a natureza única dos LLMs, concentrando-se potencialmente
na utilização ética da IA ​​e na implementação de medidas robustas de protecção de dados durante a formação e implementação de modelos. Tecnologicamente, os avanços na interpretabilidade e controle do modelo poderiam ajudar na conformidade. Técnicas para tornar os LLMs mais transparentes e métodos para rastrear a proveniência dos dados dentro dos modelos são áreas de pesquisa contínua. Além disso, a privacidade diferencial, que garante que a remoção ou adição de um único ponto de dados não afeta significativamente o resultado do modelo, poderia ser um passo para alinhar as práticas de LLM com os princípios do GDPR. A aplicação do GDPR no domínio dos LLMs está repleta de complexidades devido à natureza fundamental de como estes modelos funcionam. A difusão de dados através de milhões de parâmetros, a impraticabilidade do apagamento de dados e a falta de transparência contribuem para a quase impossibilidade de conformidade estrita com o GDPR. À medida que os LLMs continuam a evoluir e a tornar-se mais integrados em várias aplicações, um esforço colaborativo entre tecnólogos e reguladores será crucial para desenvolver estruturas que protejam os dados dos utilizadores, reconhecendo ao mesmo tempo os desafios únicos colocados por estes modelos pode   O enigma da aplicação do GDPR em LLMs
0 notes
ambientalresiduos · 16 days
Text
Na era digital, a privacidade dos dados é uma preocupação primordial e regulamentos como o Regulamento Geral de Proteção de Dados (RGPD) visam proteger os dados pessoais dos indivíduos. No entanto, o advento de grandes modelos de linguagem (LLMs), como GPT-4, BERT e seus similares, representa desafios significativos para a aplicação do GDPR. Esses modelos, que geram texto prevendo o próximo token com base em padrões em grandes quantidades de dados de treinamento, complicam inerentemente o cenário regulatório. Veja por que aplicar o GDPR em LLMs é praticamente impossível. A natureza dos LLMs e do armazenamento de dados Para compreender o dilema da fiscalização, é essencial compreender como funcionam os LLMs. Ao contrário dos bancos de dados tradicionais, onde os dados são armazenados de forma estruturada, os LLMs operam de forma diferente. Eles são treinados em conjuntos de dados massivos e, por meio desse treinamento, ajustam milhões ou até bilhões de parâmetros (pesos e vieses). Esses parâmetros capturam padrões e conhecimentos intrincados dos dados, mas não armazenam os dados em si de forma recuperável. Quando um LLM gera texto, ele não acessa um banco de dados de frases ou sentenças armazenadas. Em vez disso, ele usa seus parâmetros aprendidos para prever a próxima palavra mais provável em uma sequência. Este processo é semelhante ao modo como um ser humano pode gerar texto com base em padrões de linguagem aprendidos, em vez de recordar frases exatas da memória. O direito de ser esquecido Um dos direitos fundamentais do GDPR é o “direito ao esquecimento”, permitindo que os indivíduos solicitem a exclusão dos seus dados pessoais. Nos sistemas tradicionais de armazenamento de dados, isso significa localizar e apagar entradas de dados específicas. No entanto, com os LLMs, é praticamente impossível identificar e remover dados pessoais específicos incorporados nos parâmetros do modelo. Os dados não são armazenados explicitamente, mas, em vez disso, são difundidos por inúmeros parâmetros de uma forma que não podem ser acessados ​​ou alterados individualmente. Eliminação de dados e reciclagem de modelo Mesmo que fosse teoricamente possível identificar pontos de dados específicos dentro de um LLM, apagá-los seria outro desafio monumental. A remoção de dados de um LLM exigiria um novo treinamento do modelo, o que é um processo caro e demorado. A reciclagem do zero para excluir determinados dados exigiria os mesmos extensos recursos inicialmente utilizados, incluindo poder e tempo computacional, tornando-o impraticável. O enigma da aplicação do GDPR em LLMs Anonimização e Minimização de Dados O GDPR também enfatiza a anonimização e minimização de dados. Embora os LLMs possam ser treinados em dados anonimizados, é difícil garantir o anonimato completo. Às vezes, os dados anonimizados ainda podem revelar informações pessoais quando combinados com outros dados, levando a uma potencial reidentificação. Além disso, os LLM necessitam de grandes quantidades de dados para funcionarem eficazmente, o que entra em conflito com o princípio da minimização de dados. Falta de transparência e explicabilidade Outro requisito do GDPR é a capacidade de explicar como os dados pessoais são usados ​​e como as decisões são tomadas. Os LLMs, no entanto, são frequentemente chamados de “caixas pretas” porque os seus processos de tomada de decisão não são transparentes. Compreender por que um modelo gerou um determinado trecho de texto envolve decifrar interações complexas entre vários parâmetros, uma tarefa que está além das capacidades técnicas atuais. Esta falta de explicabilidade dificulta o cumprimento dos requisitos de transparência do RGPD. O enigma da aplicação do GDPR em LLMs Seguindo em Frente: Adaptações Regulatórias e Técnicas Dados estes desafios, a aplicação do GDPR nos LLMs requer adaptações regulamentares e técnicas. Os reguladores precisam de desenvolver directrizes que tenham em conta a natureza única dos LLMs, concentrando-se potencialmente
na utilização ética da IA ​​e na implementação de medidas robustas de protecção de dados durante a formação e implementação de modelos. Tecnologicamente, os avanços na interpretabilidade e controle do modelo poderiam ajudar na conformidade. Técnicas para tornar os LLMs mais transparentes e métodos para rastrear a proveniência dos dados dentro dos modelos são áreas de pesquisa contínua. Além disso, a privacidade diferencial, que garante que a remoção ou adição de um único ponto de dados não afeta significativamente o resultado do modelo, poderia ser um passo para alinhar as práticas de LLM com os princípios do GDPR. A aplicação do GDPR no domínio dos LLMs está repleta de complexidades devido à natureza fundamental de como estes modelos funcionam. A difusão de dados através de milhões de parâmetros, a impraticabilidade do apagamento de dados e a falta de transparência contribuem para a quase impossibilidade de conformidade estrita com o GDPR. À medida que os LLMs continuam a evoluir e a tornar-se mais integrados em várias aplicações, um esforço colaborativo entre tecnólogos e reguladores será crucial para desenvolver estruturas que protejam os dados dos utilizadores, reconhecendo ao mesmo tempo os desafios únicos colocados por estes modelos pode   O enigma da aplicação do GDPR em LLMs
0 notes
adriano-ferreira · 2 months
Text
Direitos Fundamentais Digitais
Os direitos fundamentais são os direitos básicos individuais, sociais, políticos e jurídicos que são previstos na Constituição Federal de uma nação. Eles são baseados nos princípios dos direitos humanos, garantindo a liberdade, a vida, a igualdade, a educação, a segurança e etc. Os direitos fundamentais referem-se aos direitos do ser humano reconhecidos e positivados no direito constitucional…
View On WordPress
0 notes
academiamaringa · 16 days
Text
Na era digital, a privacidade dos dados é uma preocupação primordial e regulamentos como o Regulamento Geral de Proteção de Dados (RGPD) visam proteger os dados pessoais dos indivíduos. No entanto, o advento de grandes modelos de linguagem (LLMs), como GPT-4, BERT e seus similares, representa desafios significativos para a aplicação do GDPR. Esses modelos, que geram texto prevendo o próximo token com base em padrões em grandes quantidades de dados de treinamento, complicam inerentemente o cenário regulatório. Veja por que aplicar o GDPR em LLMs é praticamente impossível. A natureza dos LLMs e do armazenamento de dados Para compreender o dilema da fiscalização, é essencial compreender como funcionam os LLMs. Ao contrário dos bancos de dados tradicionais, onde os dados são armazenados de forma estruturada, os LLMs operam de forma diferente. Eles são treinados em conjuntos de dados massivos e, por meio desse treinamento, ajustam milhões ou até bilhões de parâmetros (pesos e vieses). Esses parâmetros capturam padrões e conhecimentos intrincados dos dados, mas não armazenam os dados em si de forma recuperável. Quando um LLM gera texto, ele não acessa um banco de dados de frases ou sentenças armazenadas. Em vez disso, ele usa seus parâmetros aprendidos para prever a próxima palavra mais provável em uma sequência. Este processo é semelhante ao modo como um ser humano pode gerar texto com base em padrões de linguagem aprendidos, em vez de recordar frases exatas da memória. O direito de ser esquecido Um dos direitos fundamentais do GDPR é o “direito ao esquecimento”, permitindo que os indivíduos solicitem a exclusão dos seus dados pessoais. Nos sistemas tradicionais de armazenamento de dados, isso significa localizar e apagar entradas de dados específicas. No entanto, com os LLMs, é praticamente impossível identificar e remover dados pessoais específicos incorporados nos parâmetros do modelo. Os dados não são armazenados explicitamente, mas, em vez disso, são difundidos por inúmeros parâmetros de uma forma que não podem ser acessados ​​ou alterados individualmente. Eliminação de dados e reciclagem de modelo Mesmo que fosse teoricamente possível identificar pontos de dados específicos dentro de um LLM, apagá-los seria outro desafio monumental. A remoção de dados de um LLM exigiria um novo treinamento do modelo, o que é um processo caro e demorado. A reciclagem do zero para excluir determinados dados exigiria os mesmos extensos recursos inicialmente utilizados, incluindo poder e tempo computacional, tornando-o impraticável. O enigma da aplicação do GDPR em LLMs Anonimização e Minimização de Dados O GDPR também enfatiza a anonimização e minimização de dados. Embora os LLMs possam ser treinados em dados anonimizados, é difícil garantir o anonimato completo. Às vezes, os dados anonimizados ainda podem revelar informações pessoais quando combinados com outros dados, levando a uma potencial reidentificação. Além disso, os LLM necessitam de grandes quantidades de dados para funcionarem eficazmente, o que entra em conflito com o princípio da minimização de dados. Falta de transparência e explicabilidade Outro requisito do GDPR é a capacidade de explicar como os dados pessoais são usados ​​e como as decisões são tomadas. Os LLMs, no entanto, são frequentemente chamados de “caixas pretas” porque os seus processos de tomada de decisão não são transparentes. Compreender por que um modelo gerou um determinado trecho de texto envolve decifrar interações complexas entre vários parâmetros, uma tarefa que está além das capacidades técnicas atuais. Esta falta de explicabilidade dificulta o cumprimento dos requisitos de transparência do RGPD. O enigma da aplicação do GDPR em LLMs Seguindo em Frente: Adaptações Regulatórias e Técnicas Dados estes desafios, a aplicação do GDPR nos LLMs requer adaptações regulamentares e técnicas. Os reguladores precisam de desenvolver directrizes que tenham em conta a natureza única dos LLMs, concentrando-se potencialmente
na utilização ética da IA ​​e na implementação de medidas robustas de protecção de dados durante a formação e implementação de modelos. Tecnologicamente, os avanços na interpretabilidade e controle do modelo poderiam ajudar na conformidade. Técnicas para tornar os LLMs mais transparentes e métodos para rastrear a proveniência dos dados dentro dos modelos são áreas de pesquisa contínua. Além disso, a privacidade diferencial, que garante que a remoção ou adição de um único ponto de dados não afeta significativamente o resultado do modelo, poderia ser um passo para alinhar as práticas de LLM com os princípios do GDPR. A aplicação do GDPR no domínio dos LLMs está repleta de complexidades devido à natureza fundamental de como estes modelos funcionam. A difusão de dados através de milhões de parâmetros, a impraticabilidade do apagamento de dados e a falta de transparência contribuem para a quase impossibilidade de conformidade estrita com o GDPR. À medida que os LLMs continuam a evoluir e a tornar-se mais integrados em várias aplicações, um esforço colaborativo entre tecnólogos e reguladores será crucial para desenvolver estruturas que protejam os dados dos utilizadores, reconhecendo ao mesmo tempo os desafios únicos colocados por estes modelos pode   O enigma da aplicação do GDPR em LLMs
0 notes
southeletro · 16 days
Text
Na era digital, a privacidade dos dados é uma preocupação primordial e regulamentos como o Regulamento Geral de Proteção de Dados (RGPD) visam proteger os dados pessoais dos indivíduos. No entanto, o advento de grandes modelos de linguagem (LLMs), como GPT-4, BERT e seus similares, representa desafios significativos para a aplicação do GDPR. Esses modelos, que geram texto prevendo o próximo token com base em padrões em grandes quantidades de dados de treinamento, complicam inerentemente o cenário regulatório. Veja por que aplicar o GDPR em LLMs é praticamente impossível. A natureza dos LLMs e do armazenamento de dados Para compreender o dilema da fiscalização, é essencial compreender como funcionam os LLMs. Ao contrário dos bancos de dados tradicionais, onde os dados são armazenados de forma estruturada, os LLMs operam de forma diferente. Eles são treinados em conjuntos de dados massivos e, por meio desse treinamento, ajustam milhões ou até bilhões de parâmetros (pesos e vieses). Esses parâmetros capturam padrões e conhecimentos intrincados dos dados, mas não armazenam os dados em si de forma recuperável. Quando um LLM gera texto, ele não acessa um banco de dados de frases ou sentenças armazenadas. Em vez disso, ele usa seus parâmetros aprendidos para prever a próxima palavra mais provável em uma sequência. Este processo é semelhante ao modo como um ser humano pode gerar texto com base em padrões de linguagem aprendidos, em vez de recordar frases exatas da memória. O direito de ser esquecido Um dos direitos fundamentais do GDPR é o “direito ao esquecimento”, permitindo que os indivíduos solicitem a exclusão dos seus dados pessoais. Nos sistemas tradicionais de armazenamento de dados, isso significa localizar e apagar entradas de dados específicas. No entanto, com os LLMs, é praticamente impossível identificar e remover dados pessoais específicos incorporados nos parâmetros do modelo. Os dados não são armazenados explicitamente, mas, em vez disso, são difundidos por inúmeros parâmetros de uma forma que não podem ser acessados ​​ou alterados individualmente. Eliminação de dados e reciclagem de modelo Mesmo que fosse teoricamente possível identificar pontos de dados específicos dentro de um LLM, apagá-los seria outro desafio monumental. A remoção de dados de um LLM exigiria um novo treinamento do modelo, o que é um processo caro e demorado. A reciclagem do zero para excluir determinados dados exigiria os mesmos extensos recursos inicialmente utilizados, incluindo poder e tempo computacional, tornando-o impraticável. O enigma da aplicação do GDPR em LLMs Anonimização e Minimização de Dados O GDPR também enfatiza a anonimização e minimização de dados. Embora os LLMs possam ser treinados em dados anonimizados, é difícil garantir o anonimato completo. Às vezes, os dados anonimizados ainda podem revelar informações pessoais quando combinados com outros dados, levando a uma potencial reidentificação. Além disso, os LLM necessitam de grandes quantidades de dados para funcionarem eficazmente, o que entra em conflito com o princípio da minimização de dados. Falta de transparência e explicabilidade Outro requisito do GDPR é a capacidade de explicar como os dados pessoais são usados ​​e como as decisões são tomadas. Os LLMs, no entanto, são frequentemente chamados de “caixas pretas” porque os seus processos de tomada de decisão não são transparentes. Compreender por que um modelo gerou um determinado trecho de texto envolve decifrar interações complexas entre vários parâmetros, uma tarefa que está além das capacidades técnicas atuais. Esta falta de explicabilidade dificulta o cumprimento dos requisitos de transparência do RGPD. O enigma da aplicação do GDPR em LLMs Seguindo em Frente: Adaptações Regulatórias e Técnicas Dados estes desafios, a aplicação do GDPR nos LLMs requer adaptações regulamentares e técnicas. Os reguladores precisam de desenvolver directrizes que tenham em conta a natureza única dos LLMs, concentrando-se potencialmente
na utilização ética da IA ​​e na implementação de medidas robustas de protecção de dados durante a formação e implementação de modelos. Tecnologicamente, os avanços na interpretabilidade e controle do modelo poderiam ajudar na conformidade. Técnicas para tornar os LLMs mais transparentes e métodos para rastrear a proveniência dos dados dentro dos modelos são áreas de pesquisa contínua. Além disso, a privacidade diferencial, que garante que a remoção ou adição de um único ponto de dados não afeta significativamente o resultado do modelo, poderia ser um passo para alinhar as práticas de LLM com os princípios do GDPR. A aplicação do GDPR no domínio dos LLMs está repleta de complexidades devido à natureza fundamental de como estes modelos funcionam. A difusão de dados através de milhões de parâmetros, a impraticabilidade do apagamento de dados e a falta de transparência contribuem para a quase impossibilidade de conformidade estrita com o GDPR. À medida que os LLMs continuam a evoluir e a tornar-se mais integrados em várias aplicações, um esforço colaborativo entre tecnólogos e reguladores será crucial para desenvolver estruturas que protejam os dados dos utilizadores, reconhecendo ao mesmo tempo os desafios únicos colocados por estes modelos pode   O enigma da aplicação do GDPR em LLMs
0 notes
smartcellmga · 16 days
Text
Na era digital, a privacidade dos dados é uma preocupação primordial e regulamentos como o Regulamento Geral de Proteção de Dados (RGPD) visam proteger os dados pessoais dos indivíduos. No entanto, o advento de grandes modelos de linguagem (LLMs), como GPT-4, BERT e seus similares, representa desafios significativos para a aplicação do GDPR. Esses modelos, que geram texto prevendo o próximo token com base em padrões em grandes quantidades de dados de treinamento, complicam inerentemente o cenário regulatório. Veja por que aplicar o GDPR em LLMs é praticamente impossível. A natureza dos LLMs e do armazenamento de dados Para compreender o dilema da fiscalização, é essencial compreender como funcionam os LLMs. Ao contrário dos bancos de dados tradicionais, onde os dados são armazenados de forma estruturada, os LLMs operam de forma diferente. Eles são treinados em conjuntos de dados massivos e, por meio desse treinamento, ajustam milhões ou até bilhões de parâmetros (pesos e vieses). Esses parâmetros capturam padrões e conhecimentos intrincados dos dados, mas não armazenam os dados em si de forma recuperável. Quando um LLM gera texto, ele não acessa um banco de dados de frases ou sentenças armazenadas. Em vez disso, ele usa seus parâmetros aprendidos para prever a próxima palavra mais provável em uma sequência. Este processo é semelhante ao modo como um ser humano pode gerar texto com base em padrões de linguagem aprendidos, em vez de recordar frases exatas da memória. O direito de ser esquecido Um dos direitos fundamentais do GDPR é o “direito ao esquecimento”, permitindo que os indivíduos solicitem a exclusão dos seus dados pessoais. Nos sistemas tradicionais de armazenamento de dados, isso significa localizar e apagar entradas de dados específicas. No entanto, com os LLMs, é praticamente impossível identificar e remover dados pessoais específicos incorporados nos parâmetros do modelo. Os dados não são armazenados explicitamente, mas, em vez disso, são difundidos por inúmeros parâmetros de uma forma que não podem ser acessados ​​ou alterados individualmente. Eliminação de dados e reciclagem de modelo Mesmo que fosse teoricamente possível identificar pontos de dados específicos dentro de um LLM, apagá-los seria outro desafio monumental. A remoção de dados de um LLM exigiria um novo treinamento do modelo, o que é um processo caro e demorado. A reciclagem do zero para excluir determinados dados exigiria os mesmos extensos recursos inicialmente utilizados, incluindo poder e tempo computacional, tornando-o impraticável. O enigma da aplicação do GDPR em LLMs Anonimização e Minimização de Dados O GDPR também enfatiza a anonimização e minimização de dados. Embora os LLMs possam ser treinados em dados anonimizados, é difícil garantir o anonimato completo. Às vezes, os dados anonimizados ainda podem revelar informações pessoais quando combinados com outros dados, levando a uma potencial reidentificação. Além disso, os LLM necessitam de grandes quantidades de dados para funcionarem eficazmente, o que entra em conflito com o princípio da minimização de dados. Falta de transparência e explicabilidade Outro requisito do GDPR é a capacidade de explicar como os dados pessoais são usados ​​e como as decisões são tomadas. Os LLMs, no entanto, são frequentemente chamados de “caixas pretas” porque os seus processos de tomada de decisão não são transparentes. Compreender por que um modelo gerou um determinado trecho de texto envolve decifrar interações complexas entre vários parâmetros, uma tarefa que está além das capacidades técnicas atuais. Esta falta de explicabilidade dificulta o cumprimento dos requisitos de transparência do RGPD. O enigma da aplicação do GDPR em LLMs Seguindo em Frente: Adaptações Regulatórias e Técnicas Dados estes desafios, a aplicação do GDPR nos LLMs requer adaptações regulamentares e técnicas. Os reguladores precisam de desenvolver directrizes que tenham em conta a natureza única dos LLMs, concentrando-se potencialmente
na utilização ética da IA ​​e na implementação de medidas robustas de protecção de dados durante a formação e implementação de modelos. Tecnologicamente, os avanços na interpretabilidade e controle do modelo poderiam ajudar na conformidade. Técnicas para tornar os LLMs mais transparentes e métodos para rastrear a proveniência dos dados dentro dos modelos são áreas de pesquisa cont��nua. Além disso, a privacidade diferencial, que garante que a remoção ou adição de um único ponto de dados não afeta significativamente o resultado do modelo, poderia ser um passo para alinhar as práticas de LLM com os princípios do GDPR. A aplicação do GDPR no domínio dos LLMs está repleta de complexidades devido à natureza fundamental de como estes modelos funcionam. A difusão de dados através de milhões de parâmetros, a impraticabilidade do apagamento de dados e a falta de transparência contribuem para a quase impossibilidade de conformidade estrita com o GDPR. À medida que os LLMs continuam a evoluir e a tornar-se mais integrados em várias aplicações, um esforço colaborativo entre tecnólogos e reguladores será crucial para desenvolver estruturas que protejam os dados dos utilizadores, reconhecendo ao mesmo tempo os desafios únicos colocados por estes modelos pode   O enigma da aplicação do GDPR em LLMs
0 notes
vilaoperaria · 16 days
Text
Na era digital, a privacidade dos dados é uma preocupação primordial e regulamentos como o Regulamento Geral de Proteção de Dados (RGPD) visam proteger os dados pessoais dos indivíduos. No entanto, o advento de grandes modelos de linguagem (LLMs), como GPT-4, BERT e seus similares, representa desafios significativos para a aplicação do GDPR. Esses modelos, que geram texto prevendo o próximo token com base em padrões em grandes quantidades de dados de treinamento, complicam inerentemente o cenário regulatório. Veja por que aplicar o GDPR em LLMs é praticamente impossível. A natureza dos LLMs e do armazenamento de dados Para compreender o dilema da fiscalização, é essencial compreender como funcionam os LLMs. Ao contrário dos bancos de dados tradicionais, onde os dados são armazenados de forma estruturada, os LLMs operam de forma diferente. Eles são treinados em conjuntos de dados massivos e, por meio desse treinamento, ajustam milhões ou até bilhões de parâmetros (pesos e vieses). Esses parâmetros capturam padrões e conhecimentos intrincados dos dados, mas não armazenam os dados em si de forma recuperável. Quando um LLM gera texto, ele não acessa um banco de dados de frases ou sentenças armazenadas. Em vez disso, ele usa seus parâmetros aprendidos para prever a próxima palavra mais provável em uma sequência. Este processo é semelhante ao modo como um ser humano pode gerar texto com base em padrões de linguagem aprendidos, em vez de recordar frases exatas da memória. O direito de ser esquecido Um dos direitos fundamentais do GDPR é o “direito ao esquecimento”, permitindo que os indivíduos solicitem a exclusão dos seus dados pessoais. Nos sistemas tradicionais de armazenamento de dados, isso significa localizar e apagar entradas de dados específicas. No entanto, com os LLMs, é praticamente impossível identificar e remover dados pessoais específicos incorporados nos parâmetros do modelo. Os dados não são armazenados explicitamente, mas, em vez disso, são difundidos por inúmeros parâmetros de uma forma que não podem ser acessados ​​ou alterados individualmente. Eliminação de dados e reciclagem de modelo Mesmo que fosse teoricamente possível identificar pontos de dados específicos dentro de um LLM, apagá-los seria outro desafio monumental. A remoção de dados de um LLM exigiria um novo treinamento do modelo, o que é um processo caro e demorado. A reciclagem do zero para excluir determinados dados exigiria os mesmos extensos recursos inicialmente utilizados, incluindo poder e tempo computacional, tornando-o impraticável. O enigma da aplicação do GDPR em LLMs Anonimização e Minimização de Dados O GDPR também enfatiza a anonimização e minimização de dados. Embora os LLMs possam ser treinados em dados anonimizados, é difícil garantir o anonimato completo. Às vezes, os dados anonimizados ainda podem revelar informações pessoais quando combinados com outros dados, levando a uma potencial reidentificação. Além disso, os LLM necessitam de grandes quantidades de dados para funcionarem eficazmente, o que entra em conflito com o princípio da minimização de dados. Falta de transparência e explicabilidade Outro requisito do GDPR é a capacidade de explicar como os dados pessoais são usados ​​e como as decisões são tomadas. Os LLMs, no entanto, são frequentemente chamados de “caixas pretas” porque os seus processos de tomada de decisão não são transparentes. Compreender por que um modelo gerou um determinado trecho de texto envolve decifrar interações complexas entre vários parâmetros, uma tarefa que está além das capacidades técnicas atuais. Esta falta de explicabilidade dificulta o cumprimento dos requisitos de transparência do RGPD. O enigma da aplicação do GDPR em LLMs Seguindo em Frente: Adaptações Regulatórias e Técnicas Dados estes desafios, a aplicação do GDPR nos LLMs requer adaptações regulamentares e técnicas. Os reguladores precisam de desenvolver directrizes que tenham em conta a natureza única dos LLMs, concentrando-se potencialmente
na utilização ética da IA ​​e na implementação de medidas robustas de protecção de dados durante a formação e implementação de modelos. Tecnologicamente, os avanços na interpretabilidade e controle do modelo poderiam ajudar na conformidade. Técnicas para tornar os LLMs mais transparentes e métodos para rastrear a proveniência dos dados dentro dos modelos são áreas de pesquisa contínua. Além disso, a privacidade diferencial, que garante que a remoção ou adição de um único ponto de dados não afeta significativamente o resultado do modelo, poderia ser um passo para alinhar as práticas de LLM com os princípios do GDPR. A aplicação do GDPR no domínio dos LLMs está repleta de complexidades devido à natureza fundamental de como estes modelos funcionam. A difusão de dados através de milhões de parâmetros, a impraticabilidade do apagamento de dados e a falta de transparência contribuem para a quase impossibilidade de conformidade estrita com o GDPR. À medida que os LLMs continuam a evoluir e a tornar-se mais integrados em várias aplicações, um esforço colaborativo entre tecnólogos e reguladores será crucial para desenvolver estruturas que protejam os dados dos utilizadores, reconhecendo ao mesmo tempo os desafios únicos colocados por estes modelos pode   O enigma da aplicação do GDPR em LLMs
0 notes
servcred · 16 days
Text
Na era digital, a privacidade dos dados é uma preocupação primordial e regulamentos como o Regulamento Geral de Proteção de Dados (RGPD) visam proteger os dados pessoais dos indivíduos. No entanto, o advento de grandes modelos de linguagem (LLMs), como GPT-4, BERT e seus similares, representa desafios significativos para a aplicação do GDPR. Esses modelos, que geram texto prevendo o próximo token com base em padrões em grandes quantidades de dados de treinamento, complicam inerentemente o cenário regulatório. Veja por que aplicar o GDPR em LLMs é praticamente impossível. A natureza dos LLMs e do armazenamento de dados Para compreender o dilema da fiscalização, é essencial compreender como funcionam os LLMs. Ao contrário dos bancos de dados tradicionais, onde os dados são armazenados de forma estruturada, os LLMs operam de forma diferente. Eles são treinados em conjuntos de dados massivos e, por meio desse treinamento, ajustam milhões ou até bilhões de parâmetros (pesos e vieses). Esses parâmetros capturam padrões e conhecimentos intrincados dos dados, mas não armazenam os dados em si de forma recuperável. Quando um LLM gera texto, ele não acessa um banco de dados de frases ou sentenças armazenadas. Em vez disso, ele usa seus parâmetros aprendidos para prever a próxima palavra mais provável em uma sequência. Este processo é semelhante ao modo como um ser humano pode gerar texto com base em padrões de linguagem aprendidos, em vez de recordar frases exatas da memória. O direito de ser esquecido Um dos direitos fundamentais do GDPR é o “direito ao esquecimento”, permitindo que os indivíduos solicitem a exclusão dos seus dados pessoais. Nos sistemas tradicionais de armazenamento de dados, isso significa localizar e apagar entradas de dados específicas. No entanto, com os LLMs, é praticamente impossível identificar e remover dados pessoais específicos incorporados nos parâmetros do modelo. Os dados não são armazenados explicitamente, mas, em vez disso, são difundidos por inúmeros parâmetros de uma forma que não podem ser acessados ​​ou alterados individualmente. Eliminação de dados e reciclagem de modelo Mesmo que fosse teoricamente possível identificar pontos de dados específicos dentro de um LLM, apagá-los seria outro desafio monumental. A remoção de dados de um LLM exigiria um novo treinamento do modelo, o que é um processo caro e demorado. A reciclagem do zero para excluir determinados dados exigiria os mesmos extensos recursos inicialmente utilizados, incluindo poder e tempo computacional, tornando-o impraticável. O enigma da aplicação do GDPR em LLMs Anonimização e Minimização de Dados O GDPR também enfatiza a anonimização e minimização de dados. Embora os LLMs possam ser treinados em dados anonimizados, é difícil garantir o anonimato completo. Às vezes, os dados anonimizados ainda podem revelar informações pessoais quando combinados com outros dados, levando a uma potencial reidentificação. Além disso, os LLM necessitam de grandes quantidades de dados para funcionarem eficazmente, o que entra em conflito com o princípio da minimização de dados. Falta de transparência e explicabilidade Outro requisito do GDPR é a capacidade de explicar como os dados pessoais são usados ​​e como as decisões são tomadas. Os LLMs, no entanto, são frequentemente chamados de “caixas pretas” porque os seus processos de tomada de decisão não são transparentes. Compreender por que um modelo gerou um determinado trecho de texto envolve decifrar interações complexas entre vários parâmetros, uma tarefa que está além das capacidades técnicas atuais. Esta falta de explicabilidade dificulta o cumprimento dos requisitos de transparência do RGPD. O enigma da aplicação do GDPR em LLMs Seguindo em Frente: Adaptações Regulatórias e Técnicas Dados estes desafios, a aplicação do GDPR nos LLMs requer adaptações regulamentares e técnicas. Os reguladores precisam de desenvolver directrizes que tenham em conta a natureza única dos LLMs, concentrando-se potencialmente
na utilização ética da IA ​​e na implementação de medidas robustas de protecção de dados durante a formação e implementação de modelos. Tecnologicamente, os avanços na interpretabilidade e controle do modelo poderiam ajudar na conformidade. Técnicas para tornar os LLMs mais transparentes e métodos para rastrear a proveniência dos dados dentro dos modelos são áreas de pesquisa contínua. Além disso, a privacidade diferencial, que garante que a remoção ou adição de um único ponto de dados não afeta significativamente o resultado do modelo, poderia ser um passo para alinhar as práticas de LLM com os princípios do GDPR. A aplicação do GDPR no domínio dos LLMs está repleta de complexidades devido à natureza fundamental de como estes modelos funcionam. A difusão de dados através de milhões de parâmetros, a impraticabilidade do apagamento de dados e a falta de transparência contribuem para a quase impossibilidade de conformidade estrita com o GDPR. À medida que os LLMs continuam a evoluir e a tornar-se mais integrados em várias aplicações, um esforço colaborativo entre tecnólogos e reguladores será crucial para desenvolver estruturas que protejam os dados dos utilizadores, reconhecendo ao mesmo tempo os desafios únicos colocados por estes modelos pode   O enigma da aplicação do GDPR em LLMs
0 notes