Avançar para o conteúdo principal

Tesla: Autopilot e falsa "Full Self-Driving" da Tesla associados a acidentes e dezenas de mortes



 A Tesla continua no olho do furacão no que toca ao escrutínio de acidentes e mortes supostamente provocados pela confiança a mais do condutor no carro. O regulador americano NHTSA refere mesmo que os condutores são levados a pensar que estes carros elétricos são mais capazes do que na realidade são. O Autopilot (piloto automático) e a condução totalmente autónoma da empresa de Elon Musk estão a ser associados a centenas de acidentes e dezenas de mortes.


Autopilot e Full Self-Driving metidos em "alhadas"

Em março de 2023, um estudante da Carolina do Norte saía de um autocarro escolar quando foi atingido por um Tesla Model Y que viajava a "velocidades de autoestrada", de acordo com uma investigação federal publicada no dia 25 de abril. O condutor da Tesla estava a usar o Autopilot, o recurso avançado de assistência ao condutor da empresa que Elon Musk insiste que acabará por levar a carros totalmente autónomos.


Conforme refere a The Verge, o estudante de 17 anos atingido foi transportado para um hospital por helicóptero com ferimentos graves. Mas o que a investigação descobriu depois de examinar centenas de acidentes semelhantes foi um padrão de desatenção do condutor, combinado com as deficiências da tecnologia da Tesla, que resultou em centenas de feridos e dezenas de mortos.


Os condutores que utilizavam o Autopilot ou o irmão mais avançado do sistema, o Full Self-Driving, "não estavam suficientemente empenhados na tarefa de condução" e a tecnologia da Tesla "não assegurava adequadamente que os condutores mantivessem a sua atenção na tarefa de condução".

Concluiu a NHTSA.


No total, a NHTSA investigou 956 acidentes, começando em janeiro de 2018 e estendendo-se até agosto de 2023. Desses acidentes, alguns dos quais envolveram outros veículos que atingiram o veículo Tesla, 29 pessoas morreram.


Houve também 211 acidentes em que "o plano frontal do Tesla atingiu um veículo ou obstáculo no seu caminho". Estes acidentes, que eram frequentemente os mais graves, causaram 14 mortos e 49 feridos.


Carros Tesla investigados por baterem em veículos de emergência estacionados

A NHTSA foi levada a lançar a sua investigação após vários incidentes de condutores de Tesla que embateram em veículos de emergência estacionados na berma da estrada. A maioria destes incidentes ocorreu após o anoitecer, com o software a ignorar as medidas de controlo do local, incluindo luzes de aviso, sinalizadores, cones e uma placa de seta iluminada.


No seu relatório, a agência concluiu que o Autopilot - e, em alguns casos, o FSD - não foi concebido para manter o condutor envolvido na tarefa de conduzir. A Tesla afirma que avisa os seus clientes de que precisam de prestar atenção enquanto utilizam o Autopilot e o FSD, o que inclui manter as mãos no volante, os olhos na estrada.


No entanto, a NHTSA afirma que, em muitos casos, os condutores tornavam-se demasiado complacentes e perdiam a concentração. E quando chegava a altura de reagir, muitas vezes era demasiado tarde.


Em 59 acidentes examinados pela NHTSA, a agência concluiu que os condutores do Tesla tiveram tempo suficiente, "cinco ou mais segundos", para reagir antes de colidir com outro objeto. Em 19 desses acidentes, o perigo era visível durante 10 ou mais segundos antes da colisão.


Analisando os registos de acidentes e os dados fornecidos pela Tesla, a NHTSA constatou que os condutores não travaram ou guinaram para evitar o perigo na maioria dos acidentes analisados.


Os acidentes sem qualquer ação evasiva ou com uma tentativa tardia de ação evasiva por parte do condutor foram encontrados em todas as versões de hardware da Tesla e em todas as circunstâncias do acidente.

Afirmou a NHTSA.


 Nível 2 de "autonomia" sobrevalorizado

A NHTSA também comparou os recursos de automação de Nível 2 (L2) da Tesla com os produtos disponíveis nos veículos de outras empresas. Ao contrário de outros sistemas, o Autopilot desativava-se em vez de permitir que os condutores ajustassem a direção. Segundo o regulador, este comportamento "desencoraja" os condutores de se manterem envolvidos na tarefa de conduzir.


Uma comparação entre as escolhas de design da Tesla e as dos seus pares L2 identificou a Tesla como um caso atípico na sua abordagem à tecnologia L2, ao combinar um sistema de envolvimento do condutor fraco com as capacidades operacionais permissivas do Autopilot.

Afirmou a agência.


Até mesmo o nome da marca "Autopilot" (autopiloto) é enganador, disse a NHTSA, evocando a ideia de que os condutores não estão no controlo. Enquanto outras empresas utilizam alguma versão de "assistência", os produtos da Tesla levam os condutores a pensar que são mais capazes do que são. O procurador-geral da Califórnia e o Departamento de Veículos Motorizados do estado estão a investigar a Tesla por marcas e marketing enganosos.


A NHTSA reconhece que a sua investigação pode estar incompleta com base em "lacunas" nos dados de telemetria da Tesla. Isso pode significar que há muito mais acidentes envolvendo o Autopilot e o FSD do que o que a NHTSA foi capaz de encontrar.


A Tesla emitiu uma recolha voluntária no final do ano passado em resposta à investigação, lançando uma atualização de software over-the-air para adicionar mais avisos ao Autopilot. A NHTSA disse também que estava a iniciar uma nova investigação sobre o recall depois que vários especialistas em segurança disseram que a atualização era inadequada e ainda permitia o uso indevido.


As conclusões contrariam a insistência de Musk de que a Tesla é uma empresa de inteligência artificial que está prestes a lançar um veículo totalmente autónomo para uso pessoal. A empresa planeia revelar um robotáxi ainda este ano, que supostamente dará início a esta nova era para a Tesla.


Durante a teleconferência de resultados do primeiro trimestre desta semana, Musk reforçou a noção de que os seus veículos eram mais seguros do que os carros dirigidos por humanos.


Se tem, em escala, uma quantidade estatisticamente significativa de dados que mostra conclusivamente que o carro autónomo tem, digamos, metade da taxa de acidentes de um carro conduzidoo por humanos, acho que é difícil ignorar. Porque, nesta altura, parar a autonomia significa matar pessoas.

Disse Elon Musk.


Tesla: Autopilot e condução autónoma total associados a acidentes e dezenas de mortes (sapo.pt)


Comentários

Notícias mais vistas:

Diarreia legislativa

© DR  As mais de 150 alterações ao Código do Trabalho, no âmbito da Agenda para o Trabalho Digno, foram aprovadas esta sexta-feira pelo Parlamento, em votação final. O texto global apenas contou com os votos favoráveis da maioria absoluta socialista. PCP, BE e IL votaram contra, PSD, Chega, Livre e PAN abstiveram-se. Esta diarréia legislativa não só "passaram ao lado da concertação Social", como também "terão um profundo impacto negativo na competitividade das empresas nacionais, caso venham a ser implementadas Patrões vão falar com Marcelo para travar Agenda para o Trabalho Digno (dinheirovivo.pt)

Constância e Caima

  Fomos visitar Luís Vaz de Camões a Constância, ver a foz do Zêzere, e descobrimos que do outro lado do arvoredo estava escondida a Caima, Indústria de Celulose. https://www.youtube.com/watch?v=w4L07iwnI0M&list=PL7htBtEOa_bqy09z5TK-EW_D447F0qH1L&index=16

"Frankenstein": quão perigosa é e quais os sintomas da nova variante da Covid-19?

 Para além do nome científico XFG ou Stratus, a variante do vírus atualmente predominante é também conhecida por "Frankenstein". Nos últimos dias, tem sido noticiado que esta variante está alegadamente associada a uma "garganta de lâmina", ou seja, a uma dor de garganta mais grave. Como acontece todos os anos, estão a circular novas variantes do SARS-CoV-2 que causam infeções respiratórias. A variante XFG, atualmente predominante, é muitas vezes referida nos meios de comunicação social como a "variante Frankenstein", que tem como sintoma típico a chamada "garganta de lâmina de barbear". Os médicos relatam que os doentes se queixam de dores de garganta extremamente fortes - tão fortes que parecem estar a engolir lâminas de barbear. Vários meios de comunicação social deram conta deste quadro nos últimos dias. A Organização Mundial de Saúde (OMS) classificou oficialmente a variante atual como uma "Variante sob Monitorização" (VUM) em 23 de...