Lecteur Slashdot de longue date Okian Guerrier écrit : Il y a eu beaucoup de discussions sur régulation de l’IA dans le nouvelles récemmentdont Sam Altman devant un comité sénatorial implorant une réglementation. Jusqu’à présent, je n’ai vu que des appels à la réglementation, mais pas de suggestions sur ce que ces réglementations devraient être. Étant donné que Slashdot est largement peuplé d’experts dans divers domaines (logiciels, médecine, droit, etc.), nous devrions peut-être commencer cette discussion. Et notez que si nous ne créons pas les règles raisonnables, le Congrès (principalement des hommes blancs de 80 ans avec des conflits d’intérêts) le fera pour nous.
Quelles sont les bonnes suggestions de réglementation de l’IA ?
Je vais commencer : un humain (et plus précisément, pas un système d’IA) doit être responsable de tout traitement ou diagnostic médical. Si une IA suggère un diagnostic ou un traitement médical, il doit y avoir l’adhésion d’un humain qui pense que la décision est correcte et qui serait tenu responsable de la même manière qu’un médecin n’utilisant pas l’IA. L’IA doit être un outil utilisé par, et non un substitut aux décisions humaines. Cela éviterait des problèmes avec des humains ignorant leur responsabilité, s’appuyant sur le logiciel et causant des dommages par négligence. Les médecins peuvent utiliser l’IA pour (par exemple) diagnostiquer un cancer, mais ce sera le diagnostic du médecin et non celui de l’IA.
Quelles autres suggestions les gens ont-ils ?