Um grupo de defesa de tecnologia segura avançou esta terça-feira que o software de condução autónoma da Tesla não reconhece as crianças nas passadeiras, após uma série de testes realizados com modelos da marca.
Segundo o Dawn Project, os testes de segurança mostraram que a última versão do software de condução autónoma da Tesla atingiu os manequins com tamanho de crianças. Estes resultados potenciam a campanha que a organização tem levado a cabo para pressionar o Congresso a proibir o uso da tecnologia em causa.
De acordo com os testes, o software – lançado em junho – não detetou a figura do tamanho de uma criança a uma velocidade média de 40 quilómetros por hora.
De acordo com o The Guardian, o fundador do Dawn Project, Dan O’Dowd, classificou os resultados como “profundamente perturbadores”.
Para O’Dowd, o software “é uma ameaça letal para todos os norte-americanos”. “Mais de 100 mil condutores já o estão a utilizar (…) colocando as crianças em grande risco”, frisou, defendendo que a tecnologia deve ser proibida até que a Tesla consiga provar que os veículos “não atingirão as crianças nas passadeiras”.
Recentemente, o fundador e CEO da empresa, Elon Musk, garantiu estar “muito próximo” de atingir o nível máximo da condução autónoma – o nível cinco -, que corresponde a capacidade do veículo navegar sem qualquer intervenção humana.
“Estou extremamente confiante que o nível cinco, ou essencialmente a autonomia completa, vai acontecer e acho que vai acontecer muito rapidamente”, indicou Musk na abertura da conferência mundial sobre Inteligência Artificial, em Singapura.
E sublinhou: “estou plenamente confiante que teremos a funcionalidade base de nível cinco autónoma pronta ainda este ano”.
Em junho, a National Highway Traffic Safety Administration (NHTSA) disse que está a investigar 830 mil carros da Tesla, após uma série de acidentes ter revelado padrões no desempenho dos carros e no comportamento dos condutores.
Numa outra investigação a entidade está a analisar se a remoção do sensor de radar em alguns modelos mais recentes da Tesla faz com que os veículos utilizem os travões sem qualquer razão, o que chama de “travagem fantasma”.
Desde 2016, a agência investigou 30 acidentes com carros da Tesla equipados com sistemas de condução autónoma – 19 dos quais fatais.
Não detecta crianças, ontem vi e li que não detecta motos, possivelmente as bicicletas e7ou trotinetas também não… enfim, uma arma mortífera para quem compra estes supostos carros…
Fosca-se, que perigo!
Isso é totalmente mentira!!! Esqueçam estes pseudotestes que querem travar a grande diferença tecnológica que a Tesla já tem sobre os construtores tradicionais. A tecnologia AutoPlilot funciona como uma segunda camada de segurança!!!! Quando ligamos o AutoPilot somos avisados para nos mantermos atentos!!! Quem tem de , verdadeiramente, detectar a criança será o condutor!!! Uso a tecnologia à muito tempo e é brutal a funcionar e faz muito bem o seu trabalho!!!!
Creio que esta tecnologia já ainda longe de ser fiável, porque simplesmente ainda não atingimos o nível necessário de redundância para a detecção e consciencialização do meio envolvente que é obrigatório para a confiança neste tipo de tecnologia. Este tipo de tecnologia só será fiável em meios muitos controlados e específicos, não para uso generalizados.