The Fort Worth Press - Filosofia do longo prazo molda debate sobre Inteligência Artificial

USD -
AED 3.672993
AFN 70.000092
ALL 87.83177
AMD 386.940215
ANG 1.789679
AOA 916.999815
ARS 1135.030496
AUD 1.56275
AWG 1.8
AZN 1.697614
BAM 1.747444
BBD 2.020577
BDT 121.583046
BGN 1.747975
BHD 0.376962
BIF 2977.569501
BMD 1
BND 1.300679
BOB 6.914637
BRL 5.645601
BSD 1.000728
BTN 85.508651
BWP 13.560761
BYN 3.275062
BYR 19600
BZD 2.010195
CAD 1.399965
CDF 2869.999919
CHF 0.836845
CLF 0.024538
CLP 941.599222
CNY 7.20635
CNH 7.20788
COP 4211.24
CRC 507.690864
CUC 1
CUP 26.5
CVE 98.523026
CZK 22.288011
DJF 178.202076
DKK 6.66624
DOP 58.873198
DZD 133.336027
EGP 50.147698
ERN 15
ETB 135.43843
EUR 0.89356
FJD 2.27485
FKP 0.751869
GBP 0.75288
GEL 2.739952
GGP 0.751869
GHS 12.458677
GIP 0.751869
GMD 72.499391
GNF 8666.1663
GTQ 7.688287
GYD 209.366219
HKD 7.806535
HNL 26.025812
HRK 6.734299
HTG 130.800538
HUF 360.207999
IDR 16506.7
ILS 3.55605
IMP 0.751869
INR 85.5459
IQD 1310.895388
IRR 42112.501118
ISK 129.309997
JEP 0.751869
JMD 159.519672
JOD 0.709402
JPY 145.798502
KES 129.249579
KGS 87.450163
KHR 4004.574614
KMF 440.374976
KPW 899.960947
KRW 1399.509789
KWD 0.30743
KYD 0.833974
KZT 511.041517
LAK 21640.964243
LBP 89664.409142
LKR 298.6995
LRD 200.136701
LSL 18.150701
LTL 2.95274
LVL 0.60489
LYD 5.521006
MAD 9.290689
MDL 17.432676
MGA 4485.266525
MKD 54.986795
MMK 2099.548104
MNT 3575.14423
MOP 8.048622
MRU 39.658338
MUR 45.880297
MVR 15.449721
MWK 1735.203063
MXN 19.46938
MYR 4.283037
MZN 63.905582
NAD 18.150701
NGN 1601.040336
NIO 36.828727
NOK 10.423304
NPR 136.813842
NZD 1.705185
OMR 0.385005
PAB 1.000697
PEN 3.676082
PGK 4.157508
PHP 55.779995
PKR 281.836336
PLN 3.79609
PYG 7989.385607
QAR 3.647402
RON 4.5633
RSD 104.754799
RUB 80.500331
RWF 1443.505298
SAR 3.750776
SBD 8.354365
SCR 14.500914
SDG 600.502952
SEK 9.73645
SGD 1.29822
SHP 0.785843
SLE 22.692219
SLL 20969.500214
SOS 571.934041
SRD 36.341502
STD 20697.981008
SVC 8.756411
SYP 13001.358155
SZL 18.144779
THB 33.222972
TJS 10.362346
TMT 3.505
TND 3.020323
TOP 2.342099
TRY 38.701915
TTD 6.795956
TWD 30.174503
TZS 2692.680995
UAH 41.503333
UGX 3652.494784
UYU 41.691052
UZS 12989.22925
VES 93.362655
VND 25947.5
VUV 120.052179
WST 2.765395
XAF 586.102387
XAG 0.030859
XAU 0.000311
XCD 2.70255
XDR 0.734637
XOF 586.105005
XPF 106.554924
YER 244.150454
ZAR 18.06815
ZMK 9001.198441
ZMW 26.724862
ZWL 321.999592
Filosofia do longo prazo molda debate sobre Inteligência Artificial
Filosofia do longo prazo molda debate sobre Inteligência Artificial / foto: © AFP/Arquivos

Filosofia do longo prazo molda debate sobre Inteligência Artificial

A filosofia do longo prazo, principal ideologia do Vale do Silício, centraliza os debates sobre o papel da Inteligência Artificial (IA) na extinção da humanidade. No entanto, seus críticos alertam que ela não abrange os problemas associados a esta nova tecnologia, como os roubos de dados e o enviesamento dos algoritmos.

Tamanho do texto:

O bilionário Elon Musk e o diretor-executivo da OpenAI, Sam Altman, surpreenderam quando alertaram em uma carta aberta que a IA representava um risco de extinção para a humanidade.

Seus críticos consideraram, entretanto, que os empresários fizeram o pronunciamento com a intenção de afirmar que somente seus projetos poderiam apresentar uma salvação.

As ideologias associadas à filosofia do longo prazo, como o transumanismo - a crença de que os seres humanos podem ser transformados com a tecnologia - ou o altruísmo eficaz (criar o máximo de bem-estar possível) já exercem uma influência considerável nas universidades anglo-saxônicas e no setor tecnológico.

Peter Thiel e Marc Andreessen são dois dos grandes investidores que começaram a financiar empresas que procuram prolongar a vida humana.

Simultaneamente, cresce o número de críticos destas correntes, que, em termos gerais, se concentram na melhoria do bem-estar da humanidade a longo prazo, em vez de focar nos indivíduos de hoje. Para estes opositores, a ameaça é clara: ela exerce muita influência nos debates públicos e pode ser perigosa.

- Alertas -

O escritor e historiador Emile Torres abraçou esta corrente ideológica no passado, mas agora é um de seus maiores críticos.

Em uma entrevista à AFP, alertou que a filosofia do longo prazo tem como base os mesmos princípios que justificaram assassinatos em massa e genocídios no passado.

Os defensores desta ideologia se projetam em um futuro distante em que milhões de pessoas viajarão ao espaço para colonizar novos planetas. Também acreditam que se deve ter o mesmo dever com cada um destes futuros humanos, assim como com qualquer um dos que vivem hoje. E como são tantos, eles têm muito mais peso que a humanidade atual.

Para Torres, este raciocínio torna o longo prazo "verdadeiramente perigoso".

"Quando você tem uma visão utópica do futuro" e "as combina com uma moral utilitarista que diz que o fim pode justificar os meios, é perigoso", explica o autor do livro "Human Extinction: A History of the Science and Ethics of Annihilation" (Extinção humana: História da Ciência e a Ética da Aniquilação, em tradução livre).

Assim como outros especialistas, Torres busca redirecionar o debate para os problemas reais causados pela IA, como os direitos autorais, os preconceitos cognitivos ou a concentração de riqueza por um grupo de empresas.

Mas esse discurso, no entanto, esbarra nas opiniões cada vez mais alarmantes sobre o futuro, diz o autor.

"Falar sobre a extinção da humanidade, de um acontecimento verdadeiramente apocalíptico em que todos morrem, é muito mais emocionante do que falar sobre trabalhadores quenianos que recebem US$ 1,32 (cerca de R$ 7, na cotação atual) por hora" para moderar o conteúdo do IA, ressalta o historiador.

- Eugenia? -

A filosofia do longo prazo surgiu do trabalho do filósofo sueco Nick Bostrom sobre o risco existencial e o transumanismo nas décadas de 1990 e 2000.

De acordo com a pesquisadora Timnit Gebru, ex-membro da equipe de pesquisa sobre ética e IA do Google – que foi demitida – o transumanismo tem sido vinculado à eugenia (tentativa de "melhorar" a humanidade por meio da seleção genética) desde o seu início.

O biólogo britânico Julian Huxley, que assinou o termo, também era um teórico da eugenia. Bostrom também foi, por muito tempo, acusado de apoiar este movimento.

O filósofo, que atualmente é presidente do Instituto para o Futuro da Humanidade da Universidade de Oxford, pediu desculpas em janeiro após admitir ter escrito publicações racistas na internet na década de 1990.

"Sou a favor da eugenia? Não, não no sentido em que o termo é geralmente entendido", disse ele na época.

W.Matthews--TFWP