Eu como
investidora
de
tecnologia e
empreendedora,
sou
defensora da
tecnologia
em prol de
um bem
maior: gerar
impacto
positivo na
vida das
pessoas e
nos
negócios. Em
minha
trajetória,
sempre
busquei
olhar para
os dois
lados da
moeda.
Acredito que
as ameaças
nos apontam
para
corrigir um
caminho e
que os
benefícios
nos levam ao
caminho
certo a
percorrer.
Mas, e
quando temos
os dois?
Nos últimos
dias, vimos
um turbilhão
de emoções
surgir a
partir da carta
aberta
emitida pelo
Instituto
sem fins
lucrativos
Future of
Life que
destaca os
“grandes
riscos para
a
humanidade”,
e que pede
uma pausa de
seis meses
nas
pesquisas
sobre IA.
Este
documento
foi assinado
por Elon
Musk e mais
de 1000
especialistas
no assunto.
Pontos
principais
que foram
abordados na
Carta Aberta
e os seus
“riscos para
a
humanidade”,
de acordo
com a BBC
News Brasil:
-
"Devemos
criar
mentes
não
humanas
que
possam
eventualmente
nos
superar,
ser mais
inteligentes,
nos
tornar
obsoletos
e nos
substituir?"
-
"A
superinteligência
desalinhada
pode
causar
sérios
danos ao
mundo;
um
regime
autocrático
com
superinteligência
decisiva
também
pode
fazer
isso"
-
Empregos
podem
desaparecer,
segundo
relatório
recente
do banco
de
investimentos
Goldman
Sachs
É preciso
analisar os
impactos que
vamos
enfrentar
com os
avanços da
IA, que
deve, sim,
acontecer,
mas tendo a
responsabilidade
como
prioridade.
E isso não
acontece de
um dia para
o outro.
Enquanto a
objetificação
do ser
humano está
em alta
nessa
discussão,
poucos fazem
parte do
processo de
evolução da
tecnologia,
ou seja, não
se torna
democrático
pensar no
avanço da IA
+ pessoas se
apenas meia
dúzia de
empresas
tomam
decisões de
uma
humanidade
inteira,
concorda?
A
discussão
é muito
mais
profunda
aqui. E
eu te
pergunto:
Qual é o
limite
ético da
evolução
da
Inteligência
Artificial?
É a
privacidade
e
dignidade
do ser
humano?
It’s all
about
money,
afinal?
Penso que a
tecnologia
deve ser uma
ferramenta
para nós e
não um
sujeito da
ação. Em
conversa com
um dos
signatários
da Carta
Aberta, o
professor da
UFRGS, Chefe
do Grupo de
Pesquisa
Robótica e
convidado
pelo Fórum
Econômico
Mundial a
integrar o
Global
Future
Council on
the Future
of
Artificial
Intelligence
2023/2024,
Edson
Prestes,
busquei
entender
quais
ameaças
precisam da
nossa
atenção e
ele apontou
algumas
delas:
-
O mau
uso da
tecnologia
por
criminosos. Exemplo:
promoção
de abuso
infantil
por
intermédio
de
aplicativos
que
modificam
áudio e
vídeo em
tempo
real,
para se
aproximar
de
crianças
e
adolescentes;
-
Usuários
que
buscam
por
soluções
e
conselhos
de um
chatbot
de IA. Essa
tecnologia
tem
limitações
e pode
gerar
respostas
controversas
e
inadequadas
aos
usuários.
Isso
acontece
porque
para
fornecer
aconselhamento
terapêutico,
o
chatbot
vai
recorrer
às
informações
disponíveis
na web,
unindo-as
em uma
resposta
que pode
não ser
correta,
útil ou
adequada;
-
Exclusão
de
classes
sociais
por
parte da
IA. Exemplo:
triagem
de
atendimento
médico
que pode
dar
preferências
para um
certo
tipo de
classe,
etnias,
região
ou cor.
Este
comportamento
da IA
exclui
pessoas
que
realmente
precisam
de um...
|