MARKETING COM VISIBILIDADE E TRANSPARÊNCIA, FOCALIZANDO COM CRIATIVIDADE E COMPETÊNCIA A SUA SLOGOMARCA, FAZENDO VALER NO DETALHE DO VISUAL O DIFERENCIAL DE RETORNO DO SEU INVESTIMENTO, COM SATISFAÇÃO DO CLIENTE EM PRIMEIRO LUGAR... EXCELÊNCIA NO ATENDIMENTO PARA A SATISFAÇÃO E O ENCANTAMENTO DO CONSUMIDOR-CLIENTE!
Restrição será implementada gradualmente no Brasil e no restante do mundo para tentar diminuir o impacto na saúde mental de crianças e adolescentes. <<<===+===.=.=.= =---____-------- ----------____---------____::____ ____= =..= = =..= =..= = =____ ____::____-----------_ ___---------- ----------____---.=.=.=.= +====>>> Por Redação g1 Postado em 28 de novembro de 2024 às 15h30m
#.*Post. - Nº.\ 5.012*.#
Todos os usuários do TikTok devem ter, no mínimo, 13 anos. — Foto: AFP
O TikTok vai restringir o acesso a filtros de beleza para menores de idade em uma tentativa de diminuir o impacto na saúde mental de crianças e adolescentes.
As restrições não são válidas para todos os filtros, apenas aqueles que alteram a aparência do usuário.
Procurada pelo g1, a assessoria do TikTok confirmou queas mudanças serão implementadas no Brasil e no restante do mundo durante as próximas semanas e meses.
A restrição do aplicativo vem depois de uma pesquisa feita em vários
mercados nacionais para examinar o papel das redes sociais na formação
da identidade e do relacionamento dos adolescentes.
O relatório foi feito pela organização sem fins lucrativos de segurança online para crianças, a Internet Matters, e constatou que “os filtros de embelezamento contribuíram para uma visão de mundo distorcida na qual as imagens perfeitas são normalizadas.”
"Foi feita uma distinção clara entre efeitos criados para serem óbvios e
engraçados (por exemplo, efeitos de orelhas de animais) e efeitos
criados para alterar sua aparência. Especificamente, os
adolescentes e os pais levantaram preocupações sobre os efeitos de
“aparência”, incluindo o fato de que as pessoas que estão vendo o
conteúdo podem não perceber que ele foi alterado."
Além da mudança nos filtros de beleza, o TikTok também promete levar
mais a sério o banimento de pessoas com menos de 13 anos (idade mínima
permitida para usar a plataforma).
A empresa afirma que os usuários que tiverem suas contas excluídas
poderão recorrer “se acharem que cometemos um erro”, e que remove todos
os anos, no mundo inteiro, cerca de 6 milhões de contas que não atendem
os requisitos mínimos.
Texto tramita na Comissão Temporária de Inteligência Artificial do Senado. Segundo o presidente da comissão, senador Carlos Viana (Podemos-MG), o projeto deve ser votado na próxima terça-feira. <<<===+===.=.=.= =---____-------- ----------____---------____::____ ____= =..= = =..= =..= = =____ ____::____-----------_ ___---------- ----------____---.=.=.=.= +====>>> Por Marcela Cunha, g1 — Brasília 28/11/2024 13h56 Atualizado há uma hora Postado em 28 de novembro de 2024 às 14h55m
#.*Post. - Nº.\ 5.011*.#
Imagem gerada por inteligência artificial. — Foto: Banco de imagem gerado por IA
O senador Eduardo Gomes(PL-TO) leu, nesta quarta-feira (28) a quarta versão de seu relatório sobre o projeto que vai regulamentar o uso de inteligência artificial (IA)no Brasil.
O texto tramita na Comissão Temporária de Inteligência Artificial do Senado. Segundo o presidente da comissão, senador Carlos Viana (Podemos-MG), o projeto deve ser votado na próxima terça-feira (3).
A proposta serve para definir os limites e as permissões para o uso da tecnologia, que vai desde uma busca no Google ou a redação de um artigo no ChatGPT até a captura de fugitivos da Justiça.
Caso aprovado na comissão, o texto ainda terá de passar pelos plenários
do Senado e da Câmara, e ser sancionado pelo presidente LuizInácio Lula da Silva(PT), para virar lei.
Proibições
O relatório estabelece condutas proibidas para as plataformas responsáveis por IA. Entre elas, estão:
🚫técnicas subliminares para induzir o comportamento do usuário ou de
grupos de maneira que cause danos à saúde, segurança ou outros direitos
fundamentais próprios ou de terceiros;
🚫exploração de vulnerabilidades dos usuários;
🚫avaliação, por parte do governo, de cidadão, por meio de seu
comportamento social e personalidade, na hora de oferecer serviços e
políticas públicas;
🚫sistema que produza ou dissemine material de abuso e exploração sexual de crianças e adolescentes;
🚫tecnologia que considere ficha criminal e traços de personalidade
para supor e prever risco de cometimento de crime ou reincidência;
🚫utilização da IA como armas autônomas, que selecionam alvos e atacam sem a intervenção humana.
O uso de identificação biométrica à distância, em tempo real, em
espaços públicos será permitido apenas para captura de fugitivos,
cumprimento de mandados de prisão e flagrante de crimes com pena de mais
de dois anos de prisão.
O uso para colher provas em inquéritos policiais também será permitido
apenas com autorização judicial e quando não houver outros meios.
Goiânia recebe feira nacional de robótica e inteligência artificial
Direitos autorais
O texto assegura os direitos autorais de empresas jornalísticas,
escritores e artistas. Pelo projeto, as big techs, como Google e
Microsoft, precisariam de autorização do autor para usar conteúdos
protegidos na hora de gerar respostas.
De acordo com a proposta, as empresas que desenvolvem e aplicam IA
teriam de pagar uma remuneração aos autores para poder ter as produções
disponíveis em seus bancos de dados.
O texto estabelece que o cálculo da remuneração “considere os
princípios da razoabilidade e da proporcionalidade e elementos
relevantes, tais como a complexidade do sistema de IA desenvolvido, o
porte do agente de IA, o ciclo de realização econômica dos sistemas de
IA, o grau de utilização dos conteúdos, o valor relativo da obra ao
longo do tempo e os efeitos concorrenciais dos resultados em relação aos
conteúdos originais utilizados.”
▶️suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de IA
▶️proibição de tratamento de determinadas bases de dados
▶️proibição ou restrição para participar de regime de sandbox regulatório por até cinco anos
Procedimentos de alto risco
O texto determina atividades de inteligência artificial consideradas de alto risco.
🔎Apesar de vedar o sistema de prever crimes com base nos traços
físicos e de personalidade, o texto libera o uso de IA, por autoridades,
para avaliar a credibilidade de provas da investigação e de repressão
de infrações.
Segundo o texto, o objetivo seria "prever a ocorrência ou a recorrência
de uma infração real ou potencial com base na definição de perfis de
pessoas singulares".
Também fica autorizado, desde que classificado como de alto risco, o reconhecimento de emoções.
Nesse caso, fica excluído sistema de autenticação biométrica para confirmar uma pessoa específica, singular.
Entre os procedimentos de alto risco estão:
▶️gestão da imigração e controle de fronteiras para avaliar o ingresso de pessoa ou grupo de pessoas em território nacional;
▶️aplicações na área da saúde para auxiliar diagnósticos e
procedimentos médicos, quando houver risco relevante à integridade
física e mental das pessoas;
▶️controles de trânsito, redes de abastecimento de água e eletricidade;
▶️informações para acesso de estudantes a cursos técnicos e universidade;
▶️critérios de acesso à concessão de benefícios, como revisão de
cadastros no Bolsa Família ou até apuração de fraudes em atestados do
INSS;
▶️recrutamento, triagem, filtragem, avaliação de candidatos, tomada de
decisões sobre promoções ou cessações de relações contratuais de
trabalho.
Sistema de regulação
O projeto cria um órgão para fiscalizar o uso de IA no Brasil, o
Sistema Nacional de Regulação e Governança de Inteligência Artificial
(SIA). Segundo o texto, o sistema será coordenado pela Autoridade
Nacional de Proteção de Dados (ANPD).
Caberá ao SIA regulamentar as inteligências artificiais de alto risco
que, por exemplo, impactem negativamente no exercício de direitos e
liberdades dos usuários.
O texto prevê ainda a possibilidade de empresas de IA se associarem
para criar uma espécie de agência privada para a autorregulação do
sistema. De acordo com o texto, a autorregulação poderá estabelecer
critérios técnicos dos sistemas para questões como:
▶️compartilhamento de experiências sobre o uso de inteligência artificial;
▶️definição contextual de estruturas de governança;
▶️atuação da autoridade competente e demais agências e autoridades do SIA para emprego de medida cautelar; e
▶️canal de recebimento de informações relevantes sobre riscos do uso de
inteligência artificial por seus associados ou qualquer interessado.