Avançar para o conteúdo principal

Tesla: Autopilot e falsa "Full Self-Driving" da Tesla associados a acidentes e dezenas de mortes



 A Tesla continua no olho do furacão no que toca ao escrutínio de acidentes e mortes supostamente provocados pela confiança a mais do condutor no carro. O regulador americano NHTSA refere mesmo que os condutores são levados a pensar que estes carros elétricos são mais capazes do que na realidade são. O Autopilot (piloto automático) e a condução totalmente autónoma da empresa de Elon Musk estão a ser associados a centenas de acidentes e dezenas de mortes.


Autopilot e Full Self-Driving metidos em "alhadas"

Em março de 2023, um estudante da Carolina do Norte saía de um autocarro escolar quando foi atingido por um Tesla Model Y que viajava a "velocidades de autoestrada", de acordo com uma investigação federal publicada no dia 25 de abril. O condutor da Tesla estava a usar o Autopilot, o recurso avançado de assistência ao condutor da empresa que Elon Musk insiste que acabará por levar a carros totalmente autónomos.


Conforme refere a The Verge, o estudante de 17 anos atingido foi transportado para um hospital por helicóptero com ferimentos graves. Mas o que a investigação descobriu depois de examinar centenas de acidentes semelhantes foi um padrão de desatenção do condutor, combinado com as deficiências da tecnologia da Tesla, que resultou em centenas de feridos e dezenas de mortos.


Os condutores que utilizavam o Autopilot ou o irmão mais avançado do sistema, o Full Self-Driving, "não estavam suficientemente empenhados na tarefa de condução" e a tecnologia da Tesla "não assegurava adequadamente que os condutores mantivessem a sua atenção na tarefa de condução".

Concluiu a NHTSA.


No total, a NHTSA investigou 956 acidentes, começando em janeiro de 2018 e estendendo-se até agosto de 2023. Desses acidentes, alguns dos quais envolveram outros veículos que atingiram o veículo Tesla, 29 pessoas morreram.


Houve também 211 acidentes em que "o plano frontal do Tesla atingiu um veículo ou obstáculo no seu caminho". Estes acidentes, que eram frequentemente os mais graves, causaram 14 mortos e 49 feridos.


Carros Tesla investigados por baterem em veículos de emergência estacionados

A NHTSA foi levada a lançar a sua investigação após vários incidentes de condutores de Tesla que embateram em veículos de emergência estacionados na berma da estrada. A maioria destes incidentes ocorreu após o anoitecer, com o software a ignorar as medidas de controlo do local, incluindo luzes de aviso, sinalizadores, cones e uma placa de seta iluminada.


No seu relatório, a agência concluiu que o Autopilot - e, em alguns casos, o FSD - não foi concebido para manter o condutor envolvido na tarefa de conduzir. A Tesla afirma que avisa os seus clientes de que precisam de prestar atenção enquanto utilizam o Autopilot e o FSD, o que inclui manter as mãos no volante, os olhos na estrada.


No entanto, a NHTSA afirma que, em muitos casos, os condutores tornavam-se demasiado complacentes e perdiam a concentração. E quando chegava a altura de reagir, muitas vezes era demasiado tarde.


Em 59 acidentes examinados pela NHTSA, a agência concluiu que os condutores do Tesla tiveram tempo suficiente, "cinco ou mais segundos", para reagir antes de colidir com outro objeto. Em 19 desses acidentes, o perigo era visível durante 10 ou mais segundos antes da colisão.


Analisando os registos de acidentes e os dados fornecidos pela Tesla, a NHTSA constatou que os condutores não travaram ou guinaram para evitar o perigo na maioria dos acidentes analisados.


Os acidentes sem qualquer ação evasiva ou com uma tentativa tardia de ação evasiva por parte do condutor foram encontrados em todas as versões de hardware da Tesla e em todas as circunstâncias do acidente.

Afirmou a NHTSA.


 Nível 2 de "autonomia" sobrevalorizado

A NHTSA também comparou os recursos de automação de Nível 2 (L2) da Tesla com os produtos disponíveis nos veículos de outras empresas. Ao contrário de outros sistemas, o Autopilot desativava-se em vez de permitir que os condutores ajustassem a direção. Segundo o regulador, este comportamento "desencoraja" os condutores de se manterem envolvidos na tarefa de conduzir.


Uma comparação entre as escolhas de design da Tesla e as dos seus pares L2 identificou a Tesla como um caso atípico na sua abordagem à tecnologia L2, ao combinar um sistema de envolvimento do condutor fraco com as capacidades operacionais permissivas do Autopilot.

Afirmou a agência.


Até mesmo o nome da marca "Autopilot" (autopiloto) é enganador, disse a NHTSA, evocando a ideia de que os condutores não estão no controlo. Enquanto outras empresas utilizam alguma versão de "assistência", os produtos da Tesla levam os condutores a pensar que são mais capazes do que são. O procurador-geral da Califórnia e o Departamento de Veículos Motorizados do estado estão a investigar a Tesla por marcas e marketing enganosos.


A NHTSA reconhece que a sua investigação pode estar incompleta com base em "lacunas" nos dados de telemetria da Tesla. Isso pode significar que há muito mais acidentes envolvendo o Autopilot e o FSD do que o que a NHTSA foi capaz de encontrar.


A Tesla emitiu uma recolha voluntária no final do ano passado em resposta à investigação, lançando uma atualização de software over-the-air para adicionar mais avisos ao Autopilot. A NHTSA disse também que estava a iniciar uma nova investigação sobre o recall depois que vários especialistas em segurança disseram que a atualização era inadequada e ainda permitia o uso indevido.


As conclusões contrariam a insistência de Musk de que a Tesla é uma empresa de inteligência artificial que está prestes a lançar um veículo totalmente autónomo para uso pessoal. A empresa planeia revelar um robotáxi ainda este ano, que supostamente dará início a esta nova era para a Tesla.


Durante a teleconferência de resultados do primeiro trimestre desta semana, Musk reforçou a noção de que os seus veículos eram mais seguros do que os carros dirigidos por humanos.


Se tem, em escala, uma quantidade estatisticamente significativa de dados que mostra conclusivamente que o carro autónomo tem, digamos, metade da taxa de acidentes de um carro conduzidoo por humanos, acho que é difícil ignorar. Porque, nesta altura, parar a autonomia significa matar pessoas.

Disse Elon Musk.


Tesla: Autopilot e condução autónoma total associados a acidentes e dezenas de mortes (sapo.pt)


Comentários

Notícias mais vistas:

Constância e Caima

  Fomos visitar Luís Vaz de Camões a Constância, ver a foz do Zêzere, e descobrimos que do outro lado do arvoredo estava escondida a Caima, Indústria de Celulose. https://www.youtube.com/watch?v=w4L07iwnI0M&list=PL7htBtEOa_bqy09z5TK-EW_D447F0qH1L&index=16

Armazenamento holográfico

 Esta técnica de armazenamento de alta capacidade pode ser uma das respostas para a crescente produção de dados a nível mundial Quando pensa em hologramas provavelmente associa o conceito a uma forma futurista de comunicação e que irá permitir uma maior proximidade entre pessoas através da internet. Mas o conceito de holograma (que na prática é uma técnica de registo de padrões de interferência de luz) permite que seja explorado noutros segmentos, como o do armazenamento de dados de alta capacidade. A ideia de criar unidades de armazenamento holográficas não é nova – o conceito surgiu na década de 1960 –, mas está a ganhar nova vida graças aos avanços tecnológicos feitos em áreas como os sensores de imagem, lasers e algoritmos de Inteligência Artificial. Como se guardam dados num holograma? Primeiro, a informação que queremos preservar é codificada numa imagem 2D. Depois, é emitido um raio laser que é passado por um divisor, que cria um feixe de referência (no seu estado original) ...

TAP: quo vadis?

 É um erro estratégico abismal decidir subvencionar uma vez mais a TAP e afirmar que essa é a única solução para garantir a conectividade e o emprego na aviação, hotelaria e turismo no país. É mentira! Nos últimos 20 anos assistiu-se à falência de inúmeras companhias aéreas. 11 de Setembro, SARS, preço do petróleo, crise financeira, guerras e concorrência das companhias de baixo custo, entre tantos outros fatores externos, serviram de pano de fundo para algo que faz parte das vicissitudes de qualquer empresa: má gestão e falta de liquidez para enfrentar a mudança. Concentremo-nos em três casos europeus recentes de companhias ditas “de bandeira” que fecharam as portas e no que, de facto, aconteceu. Poucos meses após a falência da Swissair, em 2001, constatou-se um fenómeno curioso: um número elevado de salões de beleza (manicure, pedicure, cabeleireiros) abriram igualmente falência. A razão é simples, mas só mais tarde seria compreendida: muitos desses salões sustentavam-se das assi...