Die DDL auf KI wurde gestern zugelassen, Italien sollte das erste Land in Europa sein, das eines hat. Offensichtlich kann es immer noch vor der Umwandlung in das Gesetz geändert werden, aber es ist schwierig, diese Regierung zu kennen (es ist schon so viel, dass es kein Dekret ist …)

Er hat positive und negative Seiten, der meiner Meinung nach ist die Hauptsache, dass die Kontrolle der Agentur für digitales Italien (AGID) und der Agentur für National Cybersicacy (ACN), die beide für die Ernennung der Regierung sind, anvertraut werden. Obwohl es wahr ist, dass die Direktoren nur 3 und 4 Jahre dauern und auf jeden Fall Beziehungen zum Parlament bringen. Kritikpunkte an Daten auf italienischen Servern sind korrekt, wenn es eine ideale Welt wäre, was nicht ist, und ich wäre mit den europäischen Servern zufrieden … aber vor einigen Wochen sagte Europa erneut (was ist das zweite oder dritte Mal?) Die Vereinigten Staaten sind ein Land, in dem EU -Daten „zirkulieren“ können, „zirkulieren“ können.. Dann wird es die üblichen mythischen Brüste von Schrems geben, die sie abbrechen lassen, aber so sehr … ich möchte nicht die technischen Daten eingeben, die ich nicht den Blechpath zur Hand habe = D

Zusammenfassung und Markdown -Formatierung dank eines AI =]

DDL für genehmigt im Senat – Zusammenfassung (verkabelt)

Allgemeine Grundsätze

  • Delegation an die Regierung zur Regulierung der Verwendung von AI, anthropozentrischer Ausrichtung.
  • Risiken einschränken Arbeit, Gerechtigkeit und Gesundheitswesen.
  • Konsistenz mit Ai act ue e GDPR.
  • Nationale Kopfstrategie alle 2 Jahre aktualisiert (Interministerial Committee).
  • Governance anvertraut Agid e ACN.
  • Jahresbericht zum Parlament.

Spezifische Regeln für Sektoren

Arbeiten

  • Observatorium zum Arbeitsministerium bei der Verwendung von KI.
  • Transparenz gegenüber Arbeitnehmern in Auswahl, Produktivität usw.
  • Obligatorische menschliche Intervention bei Entscheidungen.

Gesundheits- und wissenschaftliche Forschung

  • Die IA entscheidet keinen Zugang zur Versorgung: Die medizinische Haftung bleibt menschlich.
  • Forschung, die nur unter menschlicher Aufsicht zulässig ist.
  • Ich verwende Daten ohne Zustimmung nur für nicht profitierende Forschung, vorbehaltlich der ethischen Genehmigung und des Datenschutzgaranters.

Gerechtigkeit

  • Die IA kann keine Sätze schreiben oder Penis entscheiden.
  • Nur zur Unterstützung von Verwaltungsverfahren zugelassen.
  • Verpflichtung, die Parteien über die Verwendung der KI zu informieren.

Verbrechen, Deepfake und Transparenz

  • Neue Verbrechen und erschwerende Verbrechen für die illegale Verwendung der KI.
  • Verpflichtung, die künstlichen Inhalte zu kennzeichnen.
  • Penis von 1 bis 5 Jahren aufgrund der Diffusion von täuschenden Deepfakes.
  • Verbot, Minderjährige ohne Zustimmung der Eltern zu verwenden.

Kritik

  • Keine Serververpflichtung in Italien für öffentliche Daten.
  • Mangel an speziellen Mitteln für Kontrollpersonen und Entwicklung IA.
  • Die Aufsichtsbehörde wurde der Regierung als zu nahe angesehen.
  • Nur wenige Mechanismen des Schutzes gegen KI -Fehler.

Vor ein paar Tagen, ähnlich wie Albanien, wurde unter anderem angekündigt:

Beschaffung: Geschwindigkeitsmemorandum des Verständnisses zur Verwendung künstlicher Intelligenz | Infrastruktur- und Verkehrsministerium

(Ich wollte einen Beitrag machen, aber ich gab auf)

https://www.wired.it/article/ddl-ai-senato-approvazione-regole-controllo-autorita/

Von nohup_me

Share.

9 Kommentare

  1. Hot_Watch_2169 on

    Le autorità di vigilanza dovrebbero essere di nomina parlamentare bipartisan. Per il resto, good job.

  2. AgentePanettone on

    >mancanza di fondi dedicati a controllo e sviluppo AI

    quindi in sostanza cosa cambia?

  3. >“L’intervento umano rimane obbligatorio“

    Com’è definito come punto?
    Perché technicamente un pulsante „approva tutte“ (sulle „scelte“ dell’IA) sarebbe intervento umano.

  4. AboveTheSeaOfNoise on

    Quanto puzza di primi tentativi di lobby e gruppi di interesse che cercano di fermare il progresso con l’aiuto della burocrazia.

    Vedrete che tra 15 anni „*l’umano al centro*“ si tradurrà in „*Devo sganciare 700€ per andare dal notaio mentre nel resto del mondo ci pensa il chatbot gratuito*“.

  5. spottiesvirus on

    Più che altro mi chiedo che senso abbia regolamentare qualcosa che non hai

    Belle le norme etiche sull’utilizzo dell’IA nella ricerca medica, ma Alphafold (intelligenza artificiale che ha portato al premio Nobel per la chimica nel 2024) non l’hanno mica fatta in Italia

    Si torna sempre all’impotenza europea che ci si illude possa essere compensata con la bulimia legislativa

    Hanno paura che l’IA supervisioni la produttività nelle aziende stile grande fratello nel paese delle PMI che usano ancora il fax?

  6. >Giustizia: L’IA non può scrivere sentenze né decidere pene.

    Potrebbe non essere così chiaro comunque. Il testo dice: „Nei casi di impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria è *sempre riservata al magistrato ogni decisione* sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti“. Al magistrato è riservato il potere di decidere, per cui il magistrato non è vincolato dall’IA. Questo però non è necessariamente un divieto all’utilizzo di sistemi di IA: potrebbe significare anche che l’IA può essere utilizzata per l’interpretazione e l’applicazione della legge, purché la decisione sia riservata al magistrato. Ergo si ritorna alla problematica delle decisioni basate unicamente sul trattamento automatizzato e dell’intervento significativo dell’uomo, già presenti nel GDPR e nella direttiva 2016/680 (e conseguente d.l. 51/2018). In un sistema ingolfato come quello della giustizia, c’è anche il rischio che l’apporto decisorio del giudice non sia chissà quanto significativo, ma si limiti ad approvare la decisione o l’interpretazione dell’IA.

    Almeno, questa è la mia impressione a caldo, devo tornare alla mia tesi che per fortuna (?) non è stata intaccata dal ddl

  7. Preso il testo completo ([MES 1146-B](https://www.senato.it/service/PDF/PDFServer/BGT/01473443.pdf)), è interessante anche l’articolo sul diritto d’autore:

    >Alla legge 22 aprile 1941, n. 633, sono apportate le seguenti modificazioni:

    >a) all’articolo 1, primo comma, dopo le parole: « opere dell’ingegno » è inserita la seguente: « umano » e dopo le parole: « forma di espressione » sono aggiunte le seguenti: « , anche laddove create con l’ausilio di strumenti di intelligenza artificiale, purché costituenti risultato del lavoro intellettuale dell’autore »;

    >b) dopo l’articolo 70-sexies è inserito il seguente:

    >« Art. 70-septies. – 1. Fermo restando quanto previsto dalla Convenzione di Berna per la protezione delle opere letterarie ed artistiche, ratificata e resa esecutiva ai sensi della legge 20 giugno 1978, n. 399, le riproduzioni e le estrazioni da opere o da altri materiali contenuti in rete o in banche di dati a cui si ha legittimamente accesso, ai fini dell’estrazione di testo e di dati attraverso modelli e sistemi di intelligenza artificiale, anche generativa, sono consentite in conformità alle disposizioni di cui agli articoli 70-ter e 70-quater ».

    Insomma, le opere prodotte con l’intelligenza artificiale contano come opere *effettive* su cui vantare il diritto d’autore all’atto della creazione, e si possono usare materiali in rete o i banche dati (a cui si ha legittimamente accesso) per estrarre testi o dati attraverso l’IA.

Leave A Reply