The Fort Worth Press - Filosofia do longo prazo molda debate sobre Inteligência Artificial

USD -
AED 3.673015
AFN 71.726294
ALL 90.628228
AMD 391.112005
ANG 1.790208
AOA 915.999667
ARS 1075.254935
AUD 1.650764
AWG 1.8025
AZN 1.698512
BAM 1.78767
BBD 2.022522
BDT 121.703761
BGN 1.782502
BHD 0.376738
BIF 2976.850879
BMD 1
BND 1.34937
BOB 6.936612
BRL 5.9165
BSD 1.001709
BTN 85.993456
BWP 14.089064
BYN 3.278185
BYR 19600
BZD 2.012102
CAD 1.41639
CDF 2870.999925
CHF 0.856497
CLF 0.025825
CLP 991.009985
CNY 7.308602
CNH 7.341565
COP 4392.25
CRC 508.269316
CUC 1
CUP 26.5
CVE 100.78607
CZK 22.9587
DJF 178.377193
DKK 6.79971
DOP 62.99702
DZD 133.652023
EGP 51.392403
ERN 15
ETB 132.597278
EUR 0.91071
FJD 2.32895
FKP 0.774458
GBP 0.78176
GEL 2.750215
GGP 0.774458
GHS 15.525941
GIP 0.774458
GMD 71.508525
GNF 8668.628777
GTQ 7.731751
GYD 210.184271
HKD 7.770985
HNL 25.629096
HRK 6.869502
HTG 131.05585
HUF 370.271981
IDR 16858.65
ILS 3.7569
IMP 0.774458
INR 85.893698
IQD 1312.212645
IRR 42099.999631
ISK 131.969723
JEP 0.774458
JMD 157.974114
JOD 0.708902
JPY 147.466502
KES 129.498433
KGS 86.832697
KHR 4008.444603
KMF 450.498557
KPW 900
KRW 1472.314971
KWD 0.307801
KYD 0.834803
KZT 525.122711
LAK 21690.447246
LBP 90299.007258
LKR 298.358348
LRD 200.336362
LSL 19.404038
LTL 2.95274
LVL 0.604891
LYD 5.555606
MAD 9.549655
MDL 17.770242
MGA 4675.331798
MKD 56.167366
MMK 2099.820881
MNT 3508.612
MOP 8.015777
MRU 39.860366
MUR 45.199882
MVR 15.400514
MWK 1736.956601
MXN 20.59255
MYR 4.483024
MZN 63.909984
NAD 19.404216
NGN 1566.00009
NIO 36.85781
NOK 10.845655
NPR 137.593119
NZD 1.78414
OMR 0.384983
PAB 1.001691
PEN 3.686611
PGK 4.07488
PHP 57.176499
PKR 280.854273
PLN 3.896142
PYG 8018.975714
QAR 3.651387
RON 4.5336
RSD 106.708036
RUB 86.145299
RWF 1412.379803
SAR 3.754602
SBD 8.316332
SCR 14.68674
SDG 600.498088
SEK 9.96516
SGD 1.347345
SHP 0.785843
SLE 22.750246
SLL 20969.501083
SOS 572.465358
SRD 36.663974
STD 20697.981008
SVC 8.764842
SYP 13001.844432
SZL 19.398006
THB 34.601506
TJS 10.883315
TMT 3.5
TND 3.072894
TOP 2.342102
TRY 38.004798
TTD 6.788724
TWD 32.992498
TZS 2674.999934
UAH 41.104804
UGX 3722.898614
UYU 42.190313
UZS 12969.361266
VES 73.26602
VND 25945
VUV 122.117563
WST 2.799576
XAF 599.573142
XAG 0.033229
XAU 0.000333
XCD 2.70255
XDR 0.745677
XOF 599.578622
XPF 109.008811
YER 245.650139
ZAR 19.423401
ZMK 9001.196392
ZMW 28.022998
ZWL 321.999592
Filosofia do longo prazo molda debate sobre Inteligência Artificial
Filosofia do longo prazo molda debate sobre Inteligência Artificial / foto: © AFP/Arquivos

Filosofia do longo prazo molda debate sobre Inteligência Artificial

A filosofia do longo prazo, principal ideologia do Vale do Silício, centraliza os debates sobre o papel da Inteligência Artificial (IA) na extinção da humanidade. No entanto, seus críticos alertam que ela não abrange os problemas associados a esta nova tecnologia, como os roubos de dados e o enviesamento dos algoritmos.

Tamanho do texto:

O bilionário Elon Musk e o diretor-executivo da OpenAI, Sam Altman, surpreenderam quando alertaram em uma carta aberta que a IA representava um risco de extinção para a humanidade.

Seus críticos consideraram, entretanto, que os empresários fizeram o pronunciamento com a intenção de afirmar que somente seus projetos poderiam apresentar uma salvação.

As ideologias associadas à filosofia do longo prazo, como o transumanismo - a crença de que os seres humanos podem ser transformados com a tecnologia - ou o altruísmo eficaz (criar o máximo de bem-estar possível) já exercem uma influência considerável nas universidades anglo-saxônicas e no setor tecnológico.

Peter Thiel e Marc Andreessen são dois dos grandes investidores que começaram a financiar empresas que procuram prolongar a vida humana.

Simultaneamente, cresce o número de críticos destas correntes, que, em termos gerais, se concentram na melhoria do bem-estar da humanidade a longo prazo, em vez de focar nos indivíduos de hoje. Para estes opositores, a ameaça é clara: ela exerce muita influência nos debates públicos e pode ser perigosa.

- Alertas -

O escritor e historiador Emile Torres abraçou esta corrente ideológica no passado, mas agora é um de seus maiores críticos.

Em uma entrevista à AFP, alertou que a filosofia do longo prazo tem como base os mesmos princípios que justificaram assassinatos em massa e genocídios no passado.

Os defensores desta ideologia se projetam em um futuro distante em que milhões de pessoas viajarão ao espaço para colonizar novos planetas. Também acreditam que se deve ter o mesmo dever com cada um destes futuros humanos, assim como com qualquer um dos que vivem hoje. E como são tantos, eles têm muito mais peso que a humanidade atual.

Para Torres, este raciocínio torna o longo prazo "verdadeiramente perigoso".

"Quando você tem uma visão utópica do futuro" e "as combina com uma moral utilitarista que diz que o fim pode justificar os meios, é perigoso", explica o autor do livro "Human Extinction: A History of the Science and Ethics of Annihilation" (Extinção humana: História da Ciência e a Ética da Aniquilação, em tradução livre).

Assim como outros especialistas, Torres busca redirecionar o debate para os problemas reais causados pela IA, como os direitos autorais, os preconceitos cognitivos ou a concentração de riqueza por um grupo de empresas.

Mas esse discurso, no entanto, esbarra nas opiniões cada vez mais alarmantes sobre o futuro, diz o autor.

"Falar sobre a extinção da humanidade, de um acontecimento verdadeiramente apocalíptico em que todos morrem, é muito mais emocionante do que falar sobre trabalhadores quenianos que recebem US$ 1,32 (cerca de R$ 7, na cotação atual) por hora" para moderar o conteúdo do IA, ressalta o historiador.

- Eugenia? -

A filosofia do longo prazo surgiu do trabalho do filósofo sueco Nick Bostrom sobre o risco existencial e o transumanismo nas décadas de 1990 e 2000.

De acordo com a pesquisadora Timnit Gebru, ex-membro da equipe de pesquisa sobre ética e IA do Google – que foi demitida – o transumanismo tem sido vinculado à eugenia (tentativa de "melhorar" a humanidade por meio da seleção genética) desde o seu início.

O biólogo britânico Julian Huxley, que assinou o termo, também era um teórico da eugenia. Bostrom também foi, por muito tempo, acusado de apoiar este movimento.

O filósofo, que atualmente é presidente do Instituto para o Futuro da Humanidade da Universidade de Oxford, pediu desculpas em janeiro após admitir ter escrito publicações racistas na internet na década de 1990.

"Sou a favor da eugenia? Não, não no sentido em que o termo é geralmente entendido", disse ele na época.

W.Matthews--TFWP