Autopilot??

No estoy de acuerdo. Y como es el mes de agosto y ahora hace fresquito lo lamento pero me ha salido la vena escritora.

Dices en el otro mensaje que te dá confianza que un ordenador supervise tu conducción y solucione tus errores. Bien, si damos por sentado que cometemos errores y el ordenador está capacitado para corregirlos es porque él no va a cometer esos errores, porque si los cometiera no podria corregirnos. Así que si nosotros cometemos errores, él no los comete y le damos la capacidad de estar por encima nuestra al corregirnos, ¿por qué directamente no le decimos que coja el control si llegado el caso va a tomarlo al corregir nuestra decisión?

No veo lógico decir que su decisión está por encima de la mia para luego decirle que no quiero que decida por mí.

¿Fallan los ordenadores? Pues si. ¿fallan tanto como el ordenador que tenemos en casa? Desde luego que no. Estamos acostumbrados a tener un sistema operativo nuevo cada dos años cuando la mayoria de nosotros ahora mismo tendriamos mas que de sobra con un windows 95. Pero hemos tenido que comprar diez SO en su lugar que, para poder cambiarse cada dos años se sacan deprisa y corriendo, sin pulir y que fallan como una escopeta de feria.

Esos ordenadores de los aviones que controlan miles de parámetros por segundo y sistemas complejísmos son equipos que funcionan con un 8086, algo que en casa no vemos desde que salieron los primeros PC en los 80. ¿Que coste puede tener diseñar un sistema que funciona literalmente con la chatarra que podemos encontrar en un vertedero? Y lo único que nos demuestran es que en casa ni necesitamos un superordenador como el que usamos ni un SO como el que cambiamos continuamente y que se pueden hacer las cosas de otra manera, apurando la tecnologia al máximo durante decenios para abaratar costes y sobre todo para eliminar fallos. Porque lo verdaderamente interesante de toda esta perorata es que esos ordenadores que controlan sistemas tan complejos, a pesar de que para jugar hoy dia los consideramos obsoletos, no fallan o por lo menos su tasa de fallos es ínfima.

Otra cosa es que como personas que somos no estemos a gusto pensando que las máquinas pueden tomar decisiones por nosotros. Lo malo es que las máquinas toman esas decisiones por nosotros continuamente y tienen su vida en nuestras manos. A lo mejor no en la carretera manejando el volante pero cuando estás haciendote un TAC o una radiografia, ¿quien controla que el flujo de rayos sea correcto y no alcance un nivel perjudicial para tu salud? La propia máquina. ¿Quien controla una central nuclear, quien controla los semáforos de una ciudad, el suministro de agua, quien decide la cantidad de productos químicos que le echamos a ese agua, a la comida en una cadena de preparación, quién controla los herbicidas que se usan en los cultivos...? Siempre es la máquina, le decimos que margenes queremos y nos vamos dejandolas a su aire. Nos consolamos diciendo que hay un sistema de aviso que en caso de que se sobrepase la dosis se encenderá una luz roja y sonará una alarma. Pero si no suenan nos comemos el pesticida sin enterarnos.

Se plantean problemas jurídicos, legales e incluso filosóficos pero tecnicamente que una máquina conduzca un coche y que lo haga mucho mas seguro que si lo llevara una persona no tiene mayor problema, ya es posible y si no se ha puesto en marcha es precisamente por esas reticencias lógicas que todos tenemos. De hecho ahí están los frios datos, un coche llevado por un ordenador en una carretera donde es el único de su clase y está rodeado de humanos conduciendo por todos los lados es el doble de seguro que si lo llevara una persona en las mismas condiciones.
 
Al margen de confiar o no en una máquina, que creo que eso en el siglo XXI ya está más que superado, mi opinión al respecto es que, además de los cambios tecnológicos que deben adoptar los vehículos, también debe de cambiar la tecnología del entorno en el que se mueven (carreteras, ciudades, señalización, etc.). De esta manera, los vehículos de los demás también pasarían a estar más controlados, y la provocación de accidentes podría reducirse notablemente. Es decir, no se trata de que vayas circulando tu solo, con tu coche autopilotado, luchando contra los elementos en plan Mad Max, sino que todos los cambios en el sistema de circulación se vayan produciendo al unísono (obviamente regulados), para minimizar los problemas que se pudieran producir.

Para mi ésto es el futuro, indudablemente.

Saludos.
 
Hablando de que nuestra vida dependa del código que tenga programado una máquina:
 
Cuando la técnica mejora quizás cambie de opinión (de hecho, me gustaría que así fuera), pero creo que todavía faltan bastantes años para eso.

Pero tu fijate en los datos:
210 millones de km por muerte en conduccion autonoma
100 millones de km por muerte conduciendo humanos.

Si te fijas el piloto no toma los mandos, solo controla un instrumento para que el avión maniobre. Hace cincuenta y tantos años.
podrá hacer en diez años.

Ese piloto automatico es un sistema muy sencillo y rudimentario, solo sigue mapas cartograficos que hace con un radar, Subir y bajar.
y lo único que tiene que hacer es mantenerse alejado del suelo a cierta distancia, es como seguir una ruta sin obstaculos.

La conduccion de un coche tiene 1000 variables mas.
 
Hombre, si lo puse fué precisamente para demostrar lo que se podia hacer de una manera sencilla hace sesenta años cuando ni siquiera existian los ordenadores. Claro que hay mil variables en la conducción pero ni la técnica es la misma que antes ni las capacidades tampoco. bueno, el meollo del asunto que es que un coche siga una ruta marcada apoyandose en un sistema de posicionamiento tampoco es que sea mucho mas complicado que lo que hace ese avión.

Por eso precisamente hoy la tecnologia nos permite plantearnos retos que hace veinte, treinta o cincuenta años eran impensables. Y mañana podremos hacer cosas que ahora se nos antojan ciencia ficción y cuando nuestros bisnietos vean las películas de lo que hacemos se partiran de risa.
 
No podía poner la respuesta en un solo mensaje, así que la he tenido que partir :)

No estoy de acuerdo. Y como es el mes de agosto y ahora hace fresquito lo lamento pero me ha salido la vena escritora.

Dices en el otro mensaje que te dá confianza que un ordenador supervise tu conducción y solucione tus errores.

Así es, me da confianza que solucione los errores (cuando, y solo si, se producen) de las decisiones que yo tomo, o que tome soluciones sencillas que dependan únicamente de la lógica. Una calculadora me da confianza :)

Que se produzca un error fatal (asumiendo que nadie quiere matarnos) en este escenario requiere:

1º: Que yo cometa un error fatal
2º: Que el ordenador del coche no se de cuenta y no me corrija a tiempo (es decir, tenga un comportamiento anómalo o no haya sido programado para detectarlo y prevenirlo)

Bien, si damos por sentado que cometemos errores y el ordenador está capacitado para corregirlos es porque él no va a cometer esos errores,

El ordenador está capacitado para corregir errores de lógica (que a los humanos no se nos dan tan bien), o para asimilar gran cantidad de datos a mucha velocidad. Un ejemplo de asimilación de estos datos podría ser: saber cuánto pesa el coche en todo momento, saber nuestra velocidad, saber la velocidad del coche más próximo, saber el estado de la carretera por la que estamos pasando, saber el viento que hace, saber si estamos en tramo ascendente/llano/descendente, saber qué capacidad de frenada tiene nuestro coche, etc, y con todo eso, saber la distancia mínima de seguridad con el coche que tenemos delante.

Y que el coche no cometa (por su comportamiento lógico) los mismos errores que nosotros no quiere decir que no pueda cometer otros que nosotros no cometeríamos (considerando errores a comportamientos no previstos del ordenador de a bordo).

porque si los cometiera no podria corregirnos. Así que si nosotros cometemos errores, él no los comete y le damos la capacidad de estar por encima nuestra al corregirnos, ¿por qué directamente no le decimos que coja el control si llegado el caso va a tomarlo al corregir nuestra decisión?

Tu afirmación presupone que los ordenadores no se equivocan o no tienen fallos. Yo defiendo que sí que se equivocan, o mejor dicho, tienen comportamientos anómalos no programados por sus programadores (o a veces simplemente una combinación de variables no prevista por sus programadores que ocasiona un comportamiento anómalo).

Si dejo que el coche tome las decisiones por mi, inconscientemente me relajaré (porque se que está conduciendo él), y no estaré en posición de solucionar a tiempo los fallos que él cometa (porque, una vez más, asumo que los cometerá).

Por tanto, me sentiré más seguro conduciendo yo y contando con la posible corrección que me haga el coche (me parece menos probable que yo acabe muerto), que confiando al 100% en la conducción autónoma del coche (o mejor dicho, en la programación que alguien de una determinada marca le haya puesto al ordenador mi coche y que no tenga un fallo no previsto), porque asumo que el ordenador del coche también puede tener un comportamiento anómalo (igual que yo) y que en este escenario, no tendré la misma capacidad de reacción que si estuviese conduciendo yo.

No veo lógico decir que su decisión está por encima de la mia para luego decirle que no quiero que decida por mí.

Yo lo veo más como una cuestión de probabilidad de que se produzca un accidente mortal, que no como una cuestión de lógica. Si yo conduzco, el sistema de backup es la asistencia del coche (que es muy rápido y siempre estará a tiempo de corregirme). Si conduce el coche, yo no creo que esté a la altura de ser el sistema de backup del coche (por falta de atención por exceso de confianza o por falta de tiempo de respuesta).

Los ordenadores hacen algunas cosas mejor que los humanos, pero otras cosas las seguimos haciendo mejor nosotros. Soy un friki informático, no un tecnófobo, pero no confundo lo que me gustaría que fuese con lo que es actualmente es.

¿Fallan los ordenadores? Pues si. ¿fallan tanto como el ordenador que tenemos en casa? Desde luego que no.

¿Qué consecuencias tiene que nuestro ordenador de casa, o nuestro móvil se cuelgue o tenga un comportamiento incorrecto?, pocas, lo reiniciamos y listo. ¿Qué consecuencias tiene que alguien nos hackee el ordenador de casa o el móvil y o controle remotamente?, las que tenga, pero no serán de vida o muerte.

¿Qué consecuencias tiene que lo anterior le pase al ordenador que conduce nuestro coche, aunque sea un fallo cada 2 años...?, mucho más graves
¿Qué consecuencias tiene que lo anterior le pase al ordenador que nos asiste en la conducción?, pocas si los que conducimos somos nosotros, no el coche. Si no cometemos un fallo grave y por tanto no se da la situación para que el ordenador de a bordo nos pueda corregir, no pasaría nada.

No es solo cuestión de que por si solos, no fallen, sino que su comportamiento sea inmune a situaciones externas, como sabotajes, interferencias electromagnéticas etc. Un equipo formado por humano-máquina, siendo el humano el que esté a los mandos, me parece más fiable que al revés, y es como me sentiría más seguro.

Estamos acostumbrados a tener un sistema operativo nuevo cada dos años cuando la mayoria de nosotros ahora mismo tendriamos mas que de sobra con un windows 95. Pero hemos tenido que comprar diez SO en su lugar que, para poder cambiarse cada dos años se sacan deprisa y corriendo, sin pulir y que fallan como una escopeta de feria.

No es por quitarle el mérito de los errores a Microsoft ;), pero también ocurren errores fuera del mundo Windows, y no solo en entornos de informática doméstica, sino en servidores, que es el campo en el que yo trabajo.

Al final el problema se reduce a que todo software tiene fallos, porque el software lo escriben humanos (que cometen errores), y se ejecuta en un hardware que también es susceptible de fallar (por si solo, en la interacción con el software, o en la interacción con sus condiciones ambientales), y que también se producen errores en la interacción con otro software. Cuanto más complejas son las tareas y las relaciones, más probable es que falle.

Cuanto más maduro es un software más errores se solucionan (y cuánta más experiencia ganamos los humanos, menos nos equivocamos), pero si el enfoque de la industria automovilística va a ser que cada marca se escriba su software, nos esperan años y años de errores (algunos de ellos costarán vidas) hasta que los pulan. Y yo no voy a ser betatester de ese software del que dependerá mi vida al volante. Cuando ese software lleve años (no se cuántos, 20 por poner un ejemplo) funcionando quizás me plantee el elegir a ese software para que nos conduzca a mi o a mi familia antes que a un conductor con un buen historial con esa misma experiencia, como pueda ser yo :)


Esos ordenadores de los aviones que controlan miles de parámetros por segundo y sistemas complejísmos son equipos que funcionan con un 8086, algo que en casa no vemos desde que salieron los primeros PC en los 80. ¿Que coste puede tener diseñar un sistema que funciona literalmente con la chatarra que podemos encontrar en un vertedero? Y lo único que nos demuestran es que en casa ni necesitamos un superordenador como el que usamos ni un SO como el que cambiamos continuamente y que se pueden hacer las cosas de otra manera, apurando la tecnologia al máximo durante decenios para abaratar costes y sobre todo para eliminar fallos. Porque lo verdaderamente interesante de toda esta perorata es que esos ordenadores que controlan sistemas tan complejos, a pesar de que para jugar hoy dia los consideramos obsoletos, no fallan o por lo menos su tasa de fallos es ínfima.

No es cuestión del procesador que elijan, es del diseño del sistema. Si aplicasen las mismas medidas de inmunidad radioeléctrica, y diseñasen los sistemas de los coches para asumir que los errores aparecerán y por tanto es necesario que haya otro sistema para corregir los errores del primario, entonces podríamos comparar a los coches con los aviones o las naves espaciales :), pero eso tiene un coste.

Yo creo que los coches que van a salir en esta primera hornada de coches autonómos o semi autonónomos serán como nuestros ordenadores de casa (con su misma fiabilidad). Y yo para poner mi vida en manos de mi coche (que conduzca por mi) necesitaré que tenga la fiabilidad de un servidor (procesadores y memoria redundada, memoria con protección de errores, con RAID, en cluster, sin nada inalámbrico, etc).
 
Otra cosa es que como personas que somos no estemos a gusto pensando que las máquinas pueden tomar decisiones por nosotros.

Dejando a un lado el tema de la fiabilidad, que es mi primera objeción a la conducción autónoma, resulta que a mi me gusta conducir :): meter el coche por charcos, ir por rutas no necesariamente más rápidas sino con mejores paisajes, evitar autopistas y pasar por pueblos, girar en un punto no previsto de la ruta para hacer unas fotos, etc.. Por mucho que me guste la tecnología, hay cosas que prefiero seguir haciendo yo. Las tareas tediosas se las dejo a las máquinas, siempre que crea que las pueden hacer de forma más fiable que yo.

Tampoco hago fotografía en modo automático, por muchos sensores que tengan las cámaras actualmente y aunque una cámara pueda hacer una foto correctamente expuesta analizando su histograma. Aunque entiendo que otras personas prefieran confiar más en las máquinas para estas tareas :)

Lo malo es que las máquinas toman esas decisiones por nosotros continuamente y tienen su vida en nuestras manos. A lo mejor no en la carretera manejando el volante pero cuando estás haciendote un TAC o una radiografia, ¿quien controla que el flujo de rayos sea correcto y no alcance un nivel perjudicial para tu salud? La propia máquina. ¿Quien controla una central nuclear, quien controla los semáforos de una ciudad, el suministro de agua, quien decide la cantidad de productos químicos que le echamos a ese agua, a la comida en una cadena de preparación, quién controla los herbicidas que se usan en los cultivos...? Siempre es la máquina, le decimos que margenes queremos y nos vamos dejandolas a su aire. Nos consolamos diciendo que hay un sistema de aviso que en caso de que se sobrepase la dosis se encenderá una luz roja y sonará una alarma. Pero si no suenan nos comemos el pesticida sin enterarnos.

Todos estos ejemplos son tareas sencillas que hace muchos años que se realizan, por lo que ya llevan años depurándose errores, se ejecutan en situaciones controladas por lo que todas las posibilidades ya están calculadas de antemano y se realizan asistidas por profesionales. No es lo mismo hacer un TAC que realizar una operación quirúrgica, por ejemplo.

Se plantean problemas jurídicos, legales e incluso filosóficos pero tecnicamente que una máquina conduzca un coche y que lo haga mucho mas seguro que si lo llevara una persona no tiene mayor problema, ya es posible y si no se ha puesto en marcha es precisamente por esas reticencias lógicas que todos tenemos. De hecho ahí están los frios datos, un coche llevado por un ordenador en una carretera donde es el único de su clase y está rodeado de humanos conduciendo por todos los lados es el doble de seguro que si lo llevara una persona en las mismas condiciones.

Los coches autónomos también sufren accidentes, por lo que yo todavía no los vendería como más seguros que cualquier conductor, porque de conductores hay de muchos tipos también...

Y a parte hay una serie de cuestiones, que antes de llenar las carreteras con coches autónomos, deberían estar resueltas.

Si un coche autónomo se ve involucrado en un accidente, ¿quien será el responsable, el conductor o el fabricante?
Si el fabricante acepta ser el responsable, ya veo a los coches llevando una caja negra y teniendo que ser manipulados solo por el taller del fabricante, y pasando unas revisiones de coste astronómico como si fuese un avión.

Por definición, los coches autónomos deberían respetar las normas de tráfico, como la distancia de seguridad. Eso quiere decir que si vamos en un coche autónomo, cualquier coche nos adelantará porque los humanos tienden a 'colarse' en los espacios de seguridad de otros coches. O en una incorporación en la que los coches van muy despacio y van metiéndose con 'calzador' el coche autónomo nunca se atreverá a meterse en ese flujo de coches, porque no parece una decisión demasiado lógica. Si en esas situaciones desconectas la conducción autónoma tendrás que seguir teniendo un seguro 'para humanos' porque no te cubrirá el del fabricante (y así quedará registrado en la caja negra del coche). O si el fabricante decide deliberadamente que la conducción autónoma no sea tan segura..., quien la querrá asegurar?. Situaciones como estas se las están encontrando los fabricantes de coches autónomos, y debería haber una legislación clara al respecto antes de que los consumidores se encuentren con el pastel.

Las máquinas tienen (si no fallan) un comportamiento lógico, o determinista, pero los humanos, no. No creo que estemos (ni los coches, ni los humanos) preparados todavía para esta interacción sin supervisión. Lo que no quita que se siga avanzando porque en un futuro creo que será así, pero antes tienen que mejorar los sistemas de los coches, legislarse ciertas cosas que hasta ahora no existían y concienciarnos los humanos, antes de que cualquier conductor se siente en un coche autónomo y asuma que todo va a ir bien.

Perdón por el rollo.
 
Resumo.

Ayer pusieron un programa que habló de vacunas. Si no recuerdo mal los datos una vacuna puede suponer un problema grave de salud en uno de cada diez millones de aplicaciones. Disminuye las muertes por esa misma enfermedad a uno de cada mil casos.

Con esos datos, ¿te vacunarias? Yo si. Aun sabiendo que tengo una pequeña posibildad de salir perjudicado y sabiendo que no siempre me va a proteger.

¿Que los ordenadores pueden equivocarse? Si, lo hacen. ¿que son capaces de controlar entornos con muchas mas variables que los humanos? Si, y lo hacen continuamente. ¿Que no queremos poner nuestra vida en sus manos? Pues lo hacemos de manera continua.

Así que de la misma manera que nos ponemos en sus manos cuando viajamos en avión y los seguros tienen mas que cubierto ese tema en carretera va a ocurrir lo mismo. Y de la misma manera que hubo quien no se quiso montar en escalera automática a principios del siglo XX porque sus altísimas velocidades provocarian problemas médicos e incluso hoy dia hay quien sigue defendiendo que no ponerse una vacuna o el cinturón aumenta tus posiblidades de supervivencia el coche autonomo se va a imponer en pocos años.
 
Resumo.

Ayer pusieron un programa que habló de vacunas. Si no recuerdo mal los datos una vacuna puede suponer un problema grave de salud en uno de cada diez millones de aplicaciones. Disminuye las muertes por esa misma enfermedad a uno de cada mil casos.

Con esos datos, ¿te vacunarias? Yo si. Aun sabiendo que tengo una pequeña posibildad de salir perjudicado y sabiendo que no siempre me va a proteger.

Esa es una decisión a la que nos enfrentamos los padres, ¿aplicamos a nuestros hijos todas las vacunas, ninguna, o solo algunas dependiendo de los riesgos/beneficios?. Esto da para un debate a parte ;), aunque por lo menos, se puede tomar la decisión de forma informada.

Hasta que no haya datos independientes sobre accidentes (no solo los que proporcionan los fabricantes, primeros interesados en vendernos lo que fabrican) de coches que podamos ver en cualquiera de nuestras calles, y en el estado de nuestra red de carreteras, no creo que tengamos datos fiables para poder comparar la conducción humana con la autónoma. Porque ya sabemos qué errores cometemos los conductores conduciendo, hay años de estadísticas, pero no tenemos las mismas estadísticas de los coches autónomos.

¿Que los ordenadores pueden equivocarse? Si, lo hacen. ¿que son capaces de controlar entornos con muchas mas variables que los humanos? Si, y lo hacen continuamente. ¿Que no queremos poner nuestra vida en sus manos? Pues lo hacemos de manera continua.

Así que de la misma manera que nos ponemos en sus manos cuando viajamos en avión y los seguros tienen mas que cubierto ese tema en carretera va a ocurrir lo mismo. Y de la misma manera que hubo quien no se quiso montar en escalera automática a principios del siglo XX porque sus altísimas velocidades provocarian problemas médicos e incluso hoy dia hay quien sigue defendiendo que no ponerse una vacuna o el cinturón aumenta tus posiblidades de supervivencia el coche autonomo se va a imponer en pocos años.

Yo no tengo ninguna duda de que los coches autónomos se vayan a imponer, apuesto por ello, pero creo que todavía tienen que pasar bastantes años para que tengamos los datos necesarios para poder confiar en ellos igual que en un buen conductor. Y cuando llegue ese momento, no dudaré en tener un coche así si me lo puedo permitir. Pero en los próximos 10 años me seguiré sintiendo más seguro conduciendo yo con la asistencia del ordenador de a bordo, que leyendo un libro mientras mi coche conduce por mi. Porque cada vez que una nueva tecnología aparece, durante los primeros años los 'early adopters' se tienen que comer los errores no previstos que surjan, y no estoy dispuesto a ser uno de ellos cuando la gravedad de los posibles errores es tan importante respecto a la mejora sobre mi conducción.

Y quien quiera ser betatester (o dummy) de las compañías de coches, que lo haga.
 
Atrás
Arriba