Foi-se o tempo em que a resposta para essa pergunta seria, pura e simplesmente, “nada”. Para além de célebres obras literárias – tais quais as de Philip K. Dick e Isaac Asimov, que há décadas já se debruçavam imaginativamente sobre a inteligência artificial – e cinematográficas – como Harrison Ford caçando androides que descumpriram os limites de sua programação – a questão da responsabilização de seres humanos e pessoas jurídicas por “atos praticados” por máquinas dotadas de “sistemas autônomos de comportamento” já nos alcançou.
O Caso Uber – acidente fatal em 2018
Em 2018, noticiou-se mundialmente o trágico acidente fatal envolvendo um carro autônomo da empresa Uber, que atingiu e matou uma ciclista em Tempe, Arizona (Estados Unidos da América). Segundo investigações realizadas após o fato[1], a Uber havia desabilitado a opção de frenagem de emergência no programa de direção autônoma do veículo, bem como tal programa não estava designado a alertar o operador – a motorista de segurança que se encontrava no interior do veículo no momento do fato – quando do reconhecimento da colisão iminente pelo sistema.
Embora nesse caso os prosecutors do County’s Attorney’s Office – órgão que, nos Estados Unidos, exerce função semelhante ao Ministério Público brasileiro em sede criminal – não tenham imputado acusações de natureza criminal contra a empresa[2], fato é que a responsabilização criminal por ato de um carro autônomo de fato foi analisada e discutida em um caso real, que inclusive já data de dois anos.
O dilema na programação
Com a vertiginosa evolução tecnológica característica dos tempos atuais, as novas tecnologias automotivas e sistemas de programação de “inteligência artificial” (usa-se o termo aqui sem qualquer pretensão de rigor técnico-científico, para designar sistema autônomo que não demande operação humana direta e constante), em breve surgirão novos casos semelhantes – quiçá mais graves –, que desafiarão o direito penal a resolver a seguinte questão: quando pode uma pessoa física e/ou jurídica ser criminalmente responsabilizada por um ato praticado por um veículo/objeto/sistema autônomo?
O ponto central da resposta, possivelmente, repousará na programação do sistema autônomo, pois alguém de fato tem de inserir no sistema de inteligência os protocolos fundamentais que regerão o comportamento do “robô”. No caso do acidente envolvendo o carro Uber, acima referido, o resultado parece ter sido causado por falhas ou opções deliberadas tomadas pelos programadores do sistema do veículo – como por exemplo a inabilitação da frenagem emergencial e a inexistência de alerta ao operador (pessoa física).
Agora, pense-se que a programação desses sistemas terá de se deparar com questões do tipo: entre colidir contra outro carro ou atropelar um pedestre, o que o carro autônomo deverá fazer? E se forem dois pedestres? E entre colidir contra um casal de idosos ou contra uma jovem mãe com uma criança de colo, o que o carro deverá fazer? Será possível que seres humanos encarregados de programar tais sistemas possam decidir, antecipadamente, sobre quais vidas devem ser preservadas e quais podem ser sacrificadas numa situação de emergência?
Nesses casos, alguém terá de fazer essas escolhas antecipadamente e programá-las nas máquinas. Depois, quando o resultado desastroso se manifestar na forma de vidas humanas ou alguma outra forma de prejuízo, essas pessoas – físicas ou jurídicas – poderão ou deverão responder criminalmente pelas vidas perdidas e dano causado?
O futuro da questão
Pense-se, ainda, que os usos da “inteligência artificial” certamente não se limitam a veículo autônomos. Não somente outros meios de transporte – como aviões e navios – utilizam cada vez mais esse tipo de tecnologia, mas diversos outros serviços podem vir a ser alterados com a utilização de programas destinados tornar desnecessária a supervisão constante de seres humanos. Não é desarrazoado imaginar, por exemplo, o uso de sistemas autônomos para a seleção de pacientes que ocuparão números limitados de leitos de UTIs, possivelmente ensejando a morte daqueles que não vieram a ser contemplados com vagas. Ou, por exemplo, um sistema autônomo tenha de escolher entre permitir o alagamento de uma ou outra cidade a fim de impedir o rompimento total de uma barragem que se situa próxima de ambas.
O avanço tecnológico que permite que essas hipóteses virem realidade está posto. A questão, quem sabe, é apenas de tempo. Quando vidas forem perdidas em decorrência das escolhas antecipadamente programadas em sistemas criados por seres humanos, o direito penal será – por bem ou por mal – chamado à discussão.
E você? O que acha da possível relação entre os “robôs” e o direito penal? Responda nos comentários abaixo!
Ivan Navarro Zonta
ivan@lucchesi.adv.br
[1] Fonte: https://www.nbcnews.com/tech/tech-news/self-driving-uber-car-hit-killed-woman-did-not-recognize-n1079281
[2] https://www.bbc.com/news/technology-47468391
*A temática surgiu a partir da disciplina Direito Penal do Século XXI, ministrada pelos Professores Doutores Alaor Leite e Paulo César Busato, no Programa de Pós-Graduação em Direito da UFPR.
Recent Comments