[{"@context":"https:\/\/schema.org\/","@type":"NewsArticle","@id":"https:\/\/www.bachhausen.de\/ice-ki-von-personalisierter-werbung-zur-staatlichen-verfolgung\/#NewsArticle","mainEntityOfPage":"https:\/\/www.bachhausen.de\/ice-ki-von-personalisierter-werbung-zur-staatlichen-verfolgung\/","headline":"ICE &amp; KI: Von personalisierter Werbung zur staatlichen Verfolgung","name":"ICE &amp; KI: Von personalisierter Werbung zur staatlichen Verfolgung","description":"Autoren: Rainer\u00a0M\u00fchlhoff und Hannah\u00a0Ruschemeier. Dieser Artikel erschien zuerst bei\u00a0Verfassungsblog. \u00dcberschriften teilweise erg\u00e4nzt durch Volksverpetzer. Die US-amerikanische Immigration and Customs Enforcement Agency (ICE) hat angek\u00fcndigt, die \u201eAd-Tech- und Big-Data-Tools\u201c privater Unternehmen f\u00fcr die Verfolgung vermeintlich illegaler Einwanderer nutzen zu wollen. Die Forderung zeigt in schonungsloser Offenheit, wie gro\u00df das Missbrauchspotenzial von&#8230;","datePublished":"2026-02-11","dateModified":"2026-02-11","author":{"@type":"Person","@id":"##Person","name":"Volksverpetzer","url":"#","identifier":14,"image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/797844b3c4803d413cf313d5c88dd88c484df206c17fbfcc4b10980ace3866a7?s=96&d=monsterid&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/797844b3c4803d413cf313d5c88dd88c484df206c17fbfcc4b10980ace3866a7?s=96&d=monsterid&r=g","height":96,"width":96}},"publisher":{"@type":"Person","name":"Dirk Bachhausen","image":{"@type":"ImageObject","@id":"https:\/\/www.bachhausen.de\/wp-content\/uploads\/2019\/07\/dirk_profil-300x300.jpg","url":"https:\/\/www.bachhausen.de\/wp-content\/uploads\/2019\/07\/dirk_profil-300x300.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/www.bachhausen.de\/wp-content\/uploads\/2019\/07\/dirk_profil-300x300.jpg","url":"https:\/\/www.bachhausen.de\/wp-content\/uploads\/2019\/07\/dirk_profil-300x300.jpg","width":100,"height":100},"url":"https:\/\/www.bachhausen.de\/ice-ki-von-personalisierter-werbung-zur-staatlichen-verfolgung\/","about":["Politik"],"wordCount":2371,"articleBody":" Autoren: Rainer\u00a0M\u00fchlhoff und Hannah\u00a0Ruschemeier. Dieser Artikel erschien zuerst bei\u00a0Verfassungsblog. \u00dcberschriften teilweise erg\u00e4nzt durch Volksverpetzer.Die US-amerikanische Immigration and Customs Enforcement Agency (ICE) hat angek\u00fcndigt, die \u201eAd-Tech- und Big-Data-Tools\u201c privater Unternehmen f\u00fcr die Verfolgung vermeintlich illegaler Einwanderer nutzen zu wollen. Die Forderung zeigt in schonungsloser Offenheit, wie gro\u00df das Missbrauchspotenzial von Gesch\u00e4ftsmodellen ist, die auf massenhafter aggressiver Datenextraktion beruhen. Gepaart mit der \u00f6konomischen Struktur des heutigen Internets und der Realit\u00e4t des Technologie-Oligopols in der Hand weniger Firmen entfaltet sich ein dystopisches Potenzial: Private Datenmacht verbindet sich mit einer Beh\u00f6rde, die \u00fcber erhebliche Vollzugs- und Zwangsbefugnisse verf\u00fcgt. Darin zeigt sich eine neue Stufe der Erosion demokratischer Kontrolle und Rechtsstaatlichkeit.Datenmacht und Vorhersagetechnologien als Risiko\u201eAdTech\u201c (Advertising Technology) bezeichnet das Gesch\u00e4ftsfeld der Big-Data- und KI-Industrie, in dem digitale Werbung automatisiert ausgespielt, gemessen und optimiert wird. Besser bekannt als \u201epersonalisierte Werbung\u201c handelt es sich dabei um eine seit mehr als 20 Jahren gewachsene Industrie, die auf der systematischen und fl\u00e4chendeckenden Sammlung von Tracking- und Verhaltensdaten im Internet beruht. Anhand der Datenspur einer Nutzer:in werden mit statistischen Verfahren Pers\u00f6nlichkeitsmerkmale ermittelt \u2013 Bildungsstand, Interessen, psychologische Profile, Krankheitsrisiken, demographische oder sozio\u00f6konomische Informationen \u2013 anhand derer dann entschieden wird, welche Werbung f\u00fcr diese Nutzer:in am \u201eeffizientesten\u201c ausgespielt werden kann.Solche Modelle lassen sich prinzipiell auf jede beliebige Person zur Vorhersage von Informationen anwenden, die diese Person nie irgendwo preisgegeben hat. Dies pr\u00e4gt die erhebliche informationelle Machtakkumulation, die mit AdTech verbunden ist. Seit den 2000er-Jahren ist die Industrie bem\u00fcht, das Image zu verbreiten, dass personalisierte Werbung gesellschaftlich harmlos sei. Der potenzielle Zugriff einer Beh\u00f6rde wie ICE auf diese technologischen Machtinstrumente zeigt jedoch das verheerende Missbrauchspotenzial dieser Technologie.Wer AdTech betreibt, hat eine besondere Form von DatenmachtDieses Missbrauchspotenzial realisiert sich bei der Zweckentfremdung urspr\u00fcnglich kommerzieller und ziviler Technologie f\u00fcr den beh\u00f6rdlichen Vollzug. Darin liegt eine gef\u00e4hrliche Vermischung des staatlichen Gewaltmonopols mit weitgehend unregulierter privater Wirtschaftsmacht. Bei den statistischen Verfahren der AdTech-Industrie handelt es sich um pr\u00e4diktive Machine-Learning-Systeme, die massenweise Vergleichsdaten ben\u00f6tigen, um trainiert zu werden. Deshalb liegt der AdTech-Markt fest in der Hand weniger gro\u00dfer Plattformunternehmen, die \u00fcber Milliarden Nutzer:innen und somit \u00fcber die M\u00f6glichkeit der Datenaggregation verf\u00fcgen \u2013 darunter prominent Google, Meta, Apple, Amazon und Microsoft.Wer also AdTech betreibt, der hat eine ganz besondere Form von Datenmacht, die wir Vorhersagemacht nennen. Diese besteht aus informationstechnischen Apparaten, die die Vorhersage nahezu beliebiger Pers\u00f6nlichkeitseigenschaften von Individuen anhand von vergleichsweise leicht erh\u00e4ltlichen Nutzungsdaten (Tracking, Social Media, Apps) erlauben. Der Katalog der Datenpunkte, die gro\u00dfe Plattformen routiniert \u00fcber alle ihre Nutzer:innen absch\u00e4tzen, um sie f\u00fcr personalisierte Werbung zu verwenden, umfasst hunderte gesch\u00e4tzter Attribute, von religi\u00f6sen Neigungen und ethnischer Herkunft bis zu Substanzmissbrauch, Beziehungsstatus oder politischen Ansichten. Der EuGH hat dazu ausgef\u00fchrt, dass die Datenverarbeitung von Meta erhebliche Auswirkungen auf Nutzer:innen hat, deren Online-Aktivit\u00e4ten zum gro\u00dfen Teil, wenn nicht sogar fast vollst\u00e4ndig, von Meta aufgezeichnet werden, was bei Nutzer:innen das Gef\u00fchl ausl\u00f6sen kann, dass ihr Privatleben kontinuierlich \u00fcberwacht wird.ICE, Daten und KI-TechnologieICE ist eine finanziell \u00fcberproportional gut ausgestattete Beh\u00f6rde, die dieses Budget auch bisher dazu genutzt hat, unterschiedliche Digitaltechnologien zu erwerben. W\u00e4re ICE eine Armee, l\u00e4ge es auf Platz 14 der bestfinanziertesten Milit\u00e4rs der Welt. Bereits seit einigen Jahren setzt ICE auch auf zunehmend digitale \u00dcberwachungstechnologien im allt\u00e4glichen Einsatz; die Beh\u00f6rde hat verschiedene Vertr\u00e4ge zur \u00dcberwachung von Aufenthaltsorten, Gesichtserkennung, Spyware, Social-Media- und Telefon\u00fcberwachung abgeschlossen. Um zwei Beispiele aufzugreifen: ICE nutzt Software, die Standortdaten von Millionen von Menschen von Datenh\u00e4ndlern sammelt, um diese mit \u00f6ffentlichen Social-Media-Daten zu verbinden. Die Firma Penlink verkauft diese Informationen dann an ICE, damit die Beh\u00f6rde ohne eine gerichtliche Entscheidung Kenntnisse \u00fcber Aufenthaltsorte und Standortdaten erlangen kann. Ein weiteres von ICE genutztes KI-Tool nennt sich Onyx und wurde von der Firma Fivecast entwickelt. Onyx wird beworben als \u201eKI-gest\u00fctzte Risikoanalyse \u2013 alles auf einer Plattform. Sie erhalten Zugriff auf Milliarden von Datenpunkten aus Millionen von Quellen, sodass Sie Bedrohungen schneller und genauer aufdecken k\u00f6nnen.\u201cWie in allen anderen Einsatzbereichen auch, sind diese Technologien fehleranf\u00e4llig. Die von ICE verwendete Gesichtserkennungs-App hat mehrfach Personen falsch identifiziert \u2013 Kontrollmechanismen oder Qualit\u00e4tssicherungsvorgaben sind nicht bekannt, die Grundrechtsrelevanz im Kontext der Entscheidung \u00fcber eine Abschiebung im Schnellverfahren ist offensichtlich.Machtmissbrauch durch Zusammenarbeit mit kommerziellen DienstenIm Zuge der technologischen Hochr\u00fcstung von ICE markiert die aktuelle Anfrage an Unternehmen der US-amerikanischen AdTech-Industrie eine neue Eskalationsstufe. Erstmals zielt die Beh\u00f6rde explizit darauf ab, Datenbest\u00e4nde und Vorhersagetechnologien zu nutzen, die f\u00fcr kommerzielle und zivile Zwecke entwickelt wurden. Konkret sollen Modelle zur Vorhersage von Pers\u00f6nlichkeitsmerkmalen, die bislang der Personalisierung von Werbung dienten, zur Identifikation und Verfolgung vermeintlich illegaler Migrant:innen eingesetzt werden.Da es sich bei den KI-Systemen der AdTech-Industrie um besonders leistungsf\u00e4hige, mit enormen Datenmengen trainierte Modelle handelt, stellt ihre staatliche Nutzung eine schwerwiegende Bedrohung f\u00fcr Freiheit und Grundrechte dar. Hier verbindet sich eine weitgehend unregulierte private Daten- und Vorhersagemacht mit hoheitlichen Zwangsbefugnissen. Die Zweckentfremdung ziviler Technologien f\u00fcr beh\u00f6rdlichen Vollzug offenbart einen grundlegenden Machtmissbrauch und den n\u00e4chsten Schritt der Erosion rechtsstaatlicher Garantien.Ein warnendes Beispiel f\u00fcr Europa\u00dcber den konkreten US-amerikanischen Kontext hinaus ist dieser Fall insbesondere aus europ\u00e4ischer Perspektive von Bedeutung. Entscheidend ist nicht allein das Handeln von ICE, sondern das gesellschaftliche und systemische Risiko, das bereits in der blo\u00dfen Existenz der zivilen technologischen Infrastruktur der AdTech-Industrie angelegt ist. Die dort stattfindende Akkumulation informationeller Vorhersagemacht birgt inh\u00e4rent die Gefahr missbr\u00e4uchlicher Sekund\u00e4rnutzung und eines schleichenden \u201efunction creep\u201c.Um Gesellschaften wirksam vor diesem Risiko zu sch\u00fctzen, muss dieses in einer pr\u00e4ventiven Herangehensweise als systemisches Risiko analysiert werden. Ohne regulatorische und organisatorische Ma\u00dfnahmen, die Daten und KI-Modelle dauerhaft an ihren urspr\u00fcnglichen Verwendungskontext \u2013 hier die Personalisierung von Werbung \u2013 binden, k\u00f6nnen solche m\u00e4chtigen Werkzeuge in ver\u00e4nderten politischen Konstellationen jederzeit f\u00fcr grundrechtsgef\u00e4hrdende Zwecke eingesetzt werden. Genau in diesem Missbrauchspotenzial, das \u00fcberall dort entsteht, wo der Einsatz m\u00e4chtiger Technologien nicht hinreichend begrenzt ist, liegt eine Dimension systemischen Risikos, die in der europ\u00e4ischen Politik bislang weitgehend verkannt wird. Der Fall ICE ist daher nicht nur ein US-amerikanisches Problem, sondern ein warnendes Beispiel daf\u00fcr, welche Gefahren auch europ\u00e4ischen Rechtsstaaten drohen, wenn Zweckbindung und demokratische Kontrolle datenbasierter Gesch\u00e4ftsmodelle nicht wirksam abgesichert werden.Zweckbindung als GrundrechtsschutzDas rechtliche Instrument der Zweckbindung zielt darauf ab, genau solche Missbrauchsgefahren von Datenmacht einzud\u00e4mmen. Zweckbindung als Prinzip kann in unterschiedlichen rechtlichen Kontexten verankert sein; es findet sich im US-amerikanischen Kontext bereits in den Fair Information Practice Principles (FIPPS) von 1973. Die USA haben allerdings weiterhin kein Datenschutzgesetz auf Bundesebene, das solche Sicherungsmechanismen verbindlich verankert.Im europ\u00e4ischen Recht ist Zweckbindung ein Grundpfeiler des Datenschutzrechts und entscheidende Voraussetzung daf\u00fcr, eine sekund\u00e4re Nutzung von Daten nach dem Vorgang ihrer ersten Erhebung, Ableitung oder sonstigen Erzeugung \u00fcberhaupt kontrollieren zu k\u00f6nnen. Trotz expliziter Normierung in der DSGVO entfaltet der Zweckbindungsgrundsatz in der Realit\u00e4t nicht seine intendierte Schutzwirkung.Der vorliegende Fall der AdTech-Industrie illustriert jedoch ein in der Literatur bereits viel diskutiertes Problem mit der Zweckbindung im Kontext von KI: KI-Modelle zur Vorhersage von Pers\u00f6nlichkeitseigenschaften k\u00f6nnen mit anonymisierten Nutzungsdaten trainiert werden und entziehen sich dann dem Schutzregime des Datenschutzes. Auch die trainierten Modelle selbst, als abgeleitete Datens\u00e4tze, sind als anonymisierte und abgeleitete Daten regelm\u00e4\u00dfig nicht unter das Zweckbindungsgebot zu fassen. Deshalb ist der Zweckbindungsgrundsatz im Kontext von pr\u00e4diktiver Analytik und KI praktisch entwertet worden: Er ist angesichts ubiquit\u00e4rer Massendaten, zahlreicher beteiligter Akteure und un\u00fcberschaubarer Datenverarbeitungsvorg\u00e4nge inklusive Anonymisierung nicht mehr anwendbar.Function creep ist Teil des Gesch\u00e4ftsmodellsEine Ausweitung der Zweckbindung auf KI-Modelle w\u00e4re eine Voraussetzung, um betroffenen Personen und Aufsichtsbeh\u00f6rden \u00fcberhaupt eine Kontrolle \u00fcber Datenverarbeitungsvorg\u00e4nge zu erm\u00f6glichen. Denn Daten werden heute nur selten einmal erhoben und ausschlie\u00dflich f\u00fcr einen bei der Erhebung festgelegten Zweck verarbeitet. In der Industrie ist vielmehr das Gegenteil der Fall: Daten und die aus ihnen trainierten KI-Modelle werden sekund\u00e4r weiterverarbeitet und in anderen Bereichen monetarisiert. Function creep ist Teil des Gesch\u00e4ftsmodells.Wenn nun, wie am Beispiel von ICE deutlich wird, staatliche Stellen an den KI-Modellen interessiert sind, die aus allt\u00e4glichen zivilen Datensch\u00e4tzen trainiert werden, erschlie\u00dft sich damit f\u00fcr die Industrie eine neue, vergleichsweise stabile und lukrative Einnahmequelle.Grundlage von Datenschutz als Autonomie- und Privatheitsschutz sind zwei zentrale Elemente: zum einen die M\u00f6glichkeit, Kontrolle \u00fcber die eigenen Daten auszu\u00fcben, und zum anderen der Grundsatz der \u201ereasonable expectation of privacy\u201c, also angemessene Erwartungen an die Privatsph\u00e4re. Beide Elemente bleiben in dieser Konstellation nicht gewahrt. Das stellt bereits im Bereich der zivilen Datenverarbeitung ein gro\u00dfes Problem dar, kann jedoch durch die Sekund\u00e4rverwendung durch \u00f6ffentliche Stellen wie ICE besonders gravierende Sch\u00e4den verursachen.Die von ICE verfolgten Personengruppen m\u00fcssen um ihre k\u00f6rperliche Unversehrtheit und ihr Leben bangen \u2013 ebenso wie inzwischen Demonstrationsteilnehmende. Dies schl\u00e4gt zugleich die Br\u00fccke zur Demokratie: um freie Diskussionen, \u00c4u\u00dferungen, Versammlungen und letztlich Wahlen zu erm\u00f6glichen, m\u00fcssen B\u00fcrger:innen in Rechtsstaaten bisher nicht damit rechnen, dass jegliche in v\u00f6llig anderen Kontexten get\u00e4tigte \u00c4u\u00dferung, jahrzehntealte Facebook-Profile oder private Chats in beh\u00f6rdlichen Verfahren herangezogen werden, zu denen sie keinerlei inhaltliche oder kontextuale Verbindung haben.Zweckbindung operationalisierbar machenWir haben deshalb an unterschiedlichen Stellen daf\u00fcr argumentiert, die Zweckbindung au\u00dferhalb des Datenschutzrechts, das stets einen identifizierbaren Datenverarbeitungsvorgang voraussetzt, zu verankern. KI-Systeme selbst, nicht individuelle Datenpunkte und ihr Personenbezug, m\u00fcssen als Ansatzpunkt der Zweckbeschr\u00e4nkung herangezogen werden. Konkret bedeutet das: Die missbr\u00e4uchliche Sekund\u00e4rnutzung von Modellen der AdTech-Industrie muss verhindert werden, indem die Vorhersagemodelle selbst auf ihren zivilen Verwendungskontext festgeschrieben werden. Eine Zweckbindung allein in Bezug auf die Verarbeitung der Daten, die zur Entwicklung dieser Modelle verwendet wurden, ist demgegen\u00fcber nicht praktikabel.Eine \u00fcberpr\u00fcfbare und damit vollziehbare Zweckbindung f\u00fcr KI-Modelle, insbesondere im Kontext von Hochrisikosystemen oder -akteuren, w\u00fcrde einen wichtigen Baustein eines effektiven Grundrechtsschutzes liefern. Zwecke m\u00fcssen transparent kommuniziert, dokumentiert und nachvollziehbar \u00fcberpr\u00fcft werden. Ein erster Schritt, dies in der aktuellen EU-Digitalgesetzgebung zu verorten, w\u00e4re die Aufnahme von Zwecken und ihre \u00c4nderungen im Rahmen der KI-Datenbank nach Art. 71 KI-VO.\u201eKoppelungsverbote\u201cDar\u00fcber hinaus halten wir es f\u00fcr essentiell, bestimmte \u201eKoppelungsverbote\u201c zu normieren. Werbe-IDs erm\u00f6glichen etwa die Erstellung umfangreicher Profile \u00fcber Krankheitspr\u00e4dispositionen, Sucht, sexuelle Orientierung, politische Einstellung, Konsumpr\u00e4ferenz und zahlreiche andere Faktoren, die in der polizeilichen Ermittlungsarbeit schon aufgrund von Diskriminierungsverboten keine Rolle spielen und zudem auch keine kriminologische Relevanz entfalten d\u00fcrfen. Eine undifferenzierte Nutzung webseiten\u00fcbergreifender Profile, wie z.B. durch die Meta Business Tools, sollte der Polizei nicht erlaubt sein.Der Zweckbindungsgrundsatz sollte daher auch in der \u00f6ffentlichen Beschaffung und bei der Schaffung neuer Kompetenzen st\u00e4rkere Ber\u00fccksichtigung finden. Staatliche Stellen sollten keine Systeme nutzen, deren Datengrundlage und vorherige Zweckbindung unklar ist oder die aus vollkommen anderen Anwendungskontexten stammen.Datennutzung durch die deutsche PolizeiAuch in Deutschland ist der Ausbau polizeilicher Datennutzungsbefugnisse ein politisches Dauerthema. Ohne diese Diskussion in die N\u00e4he der Vollzugspraktiken von ICE zu stellen, liegt in staatlicher Datenmacht ein Missbrauchsrisiko. Das zeigen bereits F\u00e4lle, die noch vergleichsweise analog anmuten, etwa die Abfrage von Handynummern zu privaten Zwecken. Solche Risiken potenzieren sich durch den Einsatz von KI-Technologien und durch die Zusammenarbeit mit Unternehmen wie Palantir.Aktuelle Gesetzes\u00e4nderungen in mehreren Bundesl\u00e4ndern sehen einen erheblichen Ausbau der Datenverarbeitungsbefugnisse der Polizei vor, u.a. auch zum Training von eigenen KI-Systemen. So erlaubt etwa der neue \u00a7 24b PolG NRW eine Weiterverarbeitung von Daten zu IT-Entwicklungszwecken: Vorhandene sowie allgemein zug\u00e4ngliche Daten k\u00f6nnen zur Entwicklung, \u00dcberpr\u00fcfung, \u00c4nderung oder zum Training von IT-Systemen verwendet werden. Darin liegt eine erhebliche Aufweichung des Zweckbindungsgrundsatzes, denn bisher war er an vergleichbare Straftaten oder den Schutz \u00e4hnlicher Rechtsg\u00fcter angekn\u00fcpft, die der urspr\u00fcnglichen Erhebung zugrunde lagen.\u00a7 42d ASOG-G Berlin ist \u00e4hnlich angelegt, geht jedoch deutlich weiter. Die Vorschrift soll Polizei und Feuerwehr erm\u00f6glichen, Daten zum Testen und Trainieren von KI-Systemen zu verwenden, und zwar auch \u00fcber die vorgesehene Speicherdauer hinaus. Absatz 3 sieht die Weitergabe von Daten an Auftragsverarbeiter und sogar an Dritte vor. Die Vorschrift h\u00f6hlt damit die Zweckbindung aus, indem sie den unbestimmten Zweck \u201eKI-Training\u201c ohne hinreichende rechtliche Konkretisierung legitimiert. Mangels Differenzierung nach Eingriffsintensit\u00e4t, Kontext oder Sensibilit\u00e4t der Daten sowie aufgrund des dehnbaren Vorbehalts der technischen Machbarkeit drohen zentrale Schutzmechanismen wirkungslos zu werden.AusblickDer Druck auf staatliche Stellen, privatwirtschaftliche \u00dcberwachungs- und Vorhersagetechnologien zu nutzen, wird in der Zukunft eher zu- als abnehmen. Der Fall ICE zeigt, dass die Sekund\u00e4rnutzung datengetriebener, ziviler Systeme \u2013 auch in rechtsstaatswidrigen Verfahrensweisen \u2013 keine hypothetische Gefahr, sondern eine ernstzunehmende Bedrohung in modernen Demokratien darstellt.Um einerseits bei der allt\u00e4glichen Nutzung digitaler Medien die Voraussetzungen freier Meinungsbildung zu bewahren und zugleich das Potenzial f\u00fcr erhebliche Grundrechtseingriffe durch Missbrauch dieser m\u00e4chtigen Technologien pr\u00e4ventiv einzud\u00e4mmen, sind neue und weitreichendere Schutzkonzepte erforderlich. Der gegenw\u00e4rtige Stand der Datenschutzgesetzgebung und KI-Regulierung ist hierf\u00fcr nicht ausreichend.Vorsorgendes Handeln ist auch deshalb geboten, weil extensive Auspr\u00e4gungen von Datenmacht nur schwer zur\u00fcckgenommen werden k\u00f6nnen. Technologien, die zun\u00e4chst durch vertrauensw\u00fcrdig erscheinende private Akteure und f\u00fcr ein legitimes Ziel eingesetzt werden, k\u00f6nnen bei wechselnden politischen Mehrheiten schnell missbraucht werden. Die latente M\u00f6glichkeit, dass zivile Datentechnologie f\u00fcr hoheitliche Aufgaben missbraucht wird, f\u00fchrt zu einem gesellschaftlichen chilling effect auf freie Entscheidungen, Diskussionskultur, Wahlen und Grundrechtsaus\u00fcbung. Diese Abschreckungseffekte auf Freiheitsaus\u00fcbung beeintr\u00e4chtigen das Gemeinwohl. So sieht es auch das Bundesverfassungsgericht: \u201eweil Selbstbestimmung eine elementare Funktionsbedingung eines auf Handlungs- und Mitwirkungsf\u00e4higkeit seiner B\u00fcrger gegr\u00fcndeten freiheitlichen demokratischen Gemeinwesens ist.\u201cArtikelbild: Ryan Murphy\/FR172324 AP\/AP\/dpa.Der Artikel erschien zuerst auf\u00a0verfassungsblog.de,\u00a0LICENSED UNDER CC BY-SA 4.0. Autoren: Rainer\u00a0M\u00fchlhoff und Hannah\u00a0Ruschemeier. \u00dcberschrift und Zwischen\u00fcberschriften erg\u00e4nzt durch Volksverpetzer. Verfassungsblog ist ein Open-Access-Diskussionsforum zu aktuellen Ereignissen und Entwicklungen in Verfassungsrecht und -politik in Deutschland, dem entstehenden europ\u00e4ischen Verfassungsraum und dar\u00fcber hinaus. Er versteht sich als Schnittstelle zwischen dem akademischen Fachdiskurs auf der einen und der politischen \u00d6ffentlichkeit auf der anderen Seite.Zur Quelle wechseln"},{"@context":"https:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"name":"ICE &amp; KI: Von personalisierter Werbung zur staatlichen Verfolgung","item":"https:\/\/www.bachhausen.de\/ice-ki-von-personalisierter-werbung-zur-staatlichen-verfolgung\/#breadcrumbitem"}]}]