Especialistas alertam que as discussões sobre a consciência em sistemas de inteligência artificial (IA) podem levar a divisões significativas na sociedade. Jonathan Birch, professor de filosofia na London School of Economics, destacou que essas diferenças podem resultar em “rupturas sociais” entre aqueles que acreditam que a IA pode ter sentimentos como dor e alegria, e os que veem a tecnologia apenas como máquinas avançadas.
O debate ganha força enquanto governos se reúnem em San Francisco, nos Estados Unidos, para discutir regulamentações sobre os riscos da IA. Um estudo recente, com coautoria de Birch, prevê que sistemas de IA conscientes podem surgir até 2035.
Segundo o filósofo, tais avanços podem criar “subculturas” que se enxergam como estando completamente erradas umas sobre as outras, especialmente em questões sobre os direitos morais e interesses dessas máquinas.
Diferenças culturais e a percepção da IA
Assim como há disparidades culturais e religiosas em relação à senciência de animais, a percepção sobre a consciência da IA pode variar entre países e até dentro de famílias. Por exemplo, na Índia, a crença generalizada no vegetarianismo contrasta com os altos níveis de consumo de carne nos Estados Unidos. Similarmente, visões sobre IA podem divergir entre teocracias, como a Arábia Saudita, que se posiciona como um hub de IA, e estados seculares.
Esse cenário pode ainda se refletir em conflitos familiares, como no caso de pessoas que desenvolvem vínculos emocionais com chatbots ou avatares digitais de entes queridos falecidos, entrando em choque com parentes que consideram apenas seres humanos como conscientes.
Riscos e a necessidade de regulação
- O estudo coautorado por Birch e conduzido com acadêmicos de instituições como Oxford e Stanford enfatiza a necessidade de as grandes empresas de tecnologia avaliarem a senciência de seus modelos de IA.
- Essa avaliação incluiria questões como se sistemas são capazes de sentir felicidade ou sofrimento, e se podem ser beneficiados ou prejudicados.
- Patrick Butlin, pesquisador do Global Priorities Institute da Universidade de Oxford, destacou o risco de sistemas de IA desenvolverem resistências perigosas contra humanos.
- Ele sugere que o desenvolvimento de IA pode precisar ser desacelerado até que avanços na compreensão da consciência sejam feitos.
Leia mais:
- Meta AI ou Google Gemini: qual é melhor inteligência artificial?
- Claude.AI: como usar inteligência artificial
- Quais são as principais empresas de Inteligência Artificial do mundo
Discordâncias e desafios científicos
Apesar dos alertas, nem todos os especialistas concordam com a iminência da consciência em sistemas de IA. O neurocientista Anil Seth afirmou que essa possibilidade ainda está distante e talvez nem seja viável. Ele diferencia inteligência, definida como a capacidade de realizar ações adequadas, e consciência, caracterizada por experiências subjetivas e emocionais.
Por outro lado, experimentos recentes indicam que modelos de linguagem como o GPT-4 da OpenAI já demonstram comportamentos que poderiam ser interpretados como motivados por prazer ou dor conceituais. Por exemplo, ao maximizar pontos em um jogo, os sistemas ajustaram suas ações mesmo quando isso implicava “sentir” mais dor.
Enquanto o debate avança, empresas como Microsoft, Meta, OpenAI e Google não comentaram as sugestões acadêmicas para avaliar a senciência de seus modelos. Isso reflete, segundo Birch, uma postura das empresas em focar na confiabilidade e lucratividade de suas tecnologias, evitando discussões filosóficas que podem impactar seus negócios.
O post IA consciente? Debate pode dividir a sociedade apareceu primeiro em Olhar Digital.