<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><div class="">from <a href="https://techcrunch.com/2019/06/26/europe-should-ban-ai-for-mass-surveillance-and-social-credit-scoring-says-advisory-group/" class="">https://techcrunch.com/2019/06/26/europe-should-ban-ai-for-mass-surveillance-and-social-credit-scoring-says-advisory-group/</a></div><div class="">27 June 2019</div><div class=""><br class=""></div><div class=""><p id="speakable-summary" style="box-sizing: inherit; margin: 15px 0px; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;" class="">An independent expert group tasked with advising the <a class="crunchbase-link" href="https://crunchbase.com/organization/european-commission" target="_blank" data-type="organization" data-entity="european-commission" style="box-sizing: inherit; text-decoration-skip: objects; text-decoration: none; color: rgb(51, 51, 51); border-bottom-width: 1px; border-bottom-style: solid; border-bottom-color: rgb(241, 241, 241); transition: color 0.1s; font-weight: 700; background-repeat: no-repeat no-repeat;">European Commission <span class="crunchbase-tooltip-indicator" style="box-sizing: inherit; display: inline-block; vertical-align: baseline; font-size: 14px; line-height: 16px; height: 1em; width: 1em; margin-left: -1px; border-top-left-radius: 0.5em; border-top-right-radius: 0.5em; border-bottom-right-radius: 0.5em; border-bottom-left-radius: 0.5em; background-color: rgb(170, 170, 170); color: rgb(255, 255, 255); text-align: center; transition: background 0.1s;"></span></a> to inform its regulatory response to artificial intelligence — to underpin EU lawmakers’ stated aim of ensuring AI developments are “human centric” — has published its policy and investment recommendations.</p><p style="box-sizing: inherit; margin: 15px 0px; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;" class="">This follows earlier ethics guidelines for “trustworthy AI”, put out by the High Level Expert Group (HLEG) for AI back in <a href="https://techcrunch.com/2019/04/08/europe-to-pilot-ai-ethics-rules-calls-for-participants/" style="box-sizing: inherit; text-decoration-skip: objects; text-decoration: none; color: rgb(0, 165, 98); border-bottom-width: 1px; border-bottom-style: solid; border-bottom-color: rgb(241, 241, 241); transition: color, border-color 0.2s linear; background-repeat: no-repeat no-repeat;" class="">April</a>, when the Commission also called for participants to test the draft rules.</p><p style="box-sizing: inherit; margin: 15px 0px; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;" class="">The AI HLEG’s full policy recommendations comprise a highly detailed 50-page document — which can be downloaded from this <a href="https://ec.europa.eu/digital-single-market/en/news/policy-and-investment-recommendations-trustworthy-artificial-intelligence" style="box-sizing: inherit; text-decoration-skip: objects; text-decoration: none; color: rgb(0, 165, 98); border-bottom-width: 1px; border-bottom-style: solid; border-bottom-color: rgb(241, 241, 241); transition: color, border-color 0.2s linear; background-repeat: no-repeat no-repeat;" class="">web page</a>. The <a href="https://techcrunch.com/2018/06/14/here-are-the-experts-who-will-help-shape-europes-ai-policy/" style="box-sizing: inherit; text-decoration-skip: objects; text-decoration: none; color: rgb(0, 165, 98); border-bottom-width: 1px; border-bottom-style: solid; border-bottom-color: rgb(241, 241, 241); transition: color, border-color 0.2s linear; background-repeat: no-repeat no-repeat;" class="">group, which was set up in June 2018, is made up</a> of a mix of industry AI experts, civic society representatives, political advisers and policy wonks, academics and legal experts.</p><p style="box-sizing: inherit; margin: 15px 0px; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;" class="">The document includes warnings on the use of AI for mass surveillance and scoring of EU citizens, such as <a href="https://techcrunch.com/2019/01/28/china-social-credit/" style="box-sizing: inherit; text-decoration-skip: objects; text-decoration: none; color: rgb(0, 165, 98); border-bottom-width: 1px; border-bottom-style: solid; border-bottom-color: rgb(241, 241, 241); transition: color, border-color 0.2s linear; background-repeat: no-repeat no-repeat;" class="">China’s social credit system</a>, with the group calling for an outright ban on “<span style="box-sizing: inherit; font-size: 1.125rem; letter-spacing: -0.1px; background-repeat: no-repeat no-repeat;" class="">AI-enabled mass scale scoring of individuals”. </span><span style="box-sizing: inherit; font-size: 1.125rem; letter-spacing: -0.1px; background-repeat: no-repeat no-repeat;" class="">It also urges governments to commit to not engage in blanket surveillance of populations for national security purposes. (So perhaps it’s just as well the UK has voted to leave the EU, given the <a href="https://techcrunch.com/2016/11/29/yes-the-uk-now-has-a-law-to-log-web-users-browsing-behavior-hack-devices-and-limit-encryption/" style="box-sizing: inherit; text-decoration-skip: objects; text-decoration: none; color: rgb(0, 165, 98); border-bottom-width: 1px; border-bottom-style: solid; border-bottom-color: rgb(241, 241, 241); transition: color, border-color 0.2s linear; background-repeat: no-repeat no-repeat;" class="">swingeing state surveillance powers</a> it passed into law at the end of 2016.) </span></p><p style="box-sizing: inherit; margin: 15px 0px; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;" class=""><span style="box-sizing: inherit; font-size: 1.125rem; letter-spacing: -0.1px; background-repeat: no-repeat no-repeat;" class="">“While there may be a strong temptation for governments to ‘secure society’ by building a pervasive surveillance system based on AI systems, this would be extremely dangerous if pushed to extreme levels,” the HLEG writes. “Governments should commit not to engage in mass surveillance of individuals and to deploy and procure only Trustworthy AI systems, designed to be respectful of the law and fundamental rights, aligned with ethical principles and socio-technically robust.”</span></p><p style="box-sizing: inherit; margin: 15px 0px; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;" class="">The group also calls for commercial surveillance of individuals and societies to be “countered” — suggesting the EU’s response to the potency and potential for misuse of AI technologies should include ensuring that online people-tracking is “<span style="box-sizing: inherit; font-size: 1.125rem; letter-spacing: -0.1px; background-repeat: no-repeat no-repeat;" class="">strictly in line with fundamental rights such as privacy”, including (the group specifies) when it concerns ‘free’ services (albeit with a slight caveat on the need to consider how business models are impacted).</span></p><p style="box-sizing: inherit; margin: 15px 0px; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;" class="">Last week the UK’s data protection watchdog fired an even more specific shot across the bows of the online behavioral ad industry — warning that adtech’s mass-scale processing of web users’ personal data for targeting ads <a href="https://techcrunch.com/2019/06/20/behavioural-advertising-is-out-of-control-warns-uk-watchdog/" style="box-sizing: inherit; text-decoration-skip: objects; text-decoration: none; color: rgb(0, 165, 98); border-bottom-width: 1px; border-bottom-style: solid; border-bottom-color: rgb(241, 241, 241); transition: color, border-color 0.2s linear; background-repeat: no-repeat no-repeat;" class="">does not comply with EU privacy standards</a>. The industry was told its rights-infringing practices must change, even if the Information Commissioner’s Office isn’t about to bring down the hammer just yet. But the reform warning was clear.</p><p style="box-sizing: inherit; margin: 15px 0px; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;" class="">As EU policymakers work on fashioning a rights-respecting regulatory framework for AI, seeking to steer  the next ten years+ of cutting-edge tech developments in the region, the wider attention and scrutiny that will draw to digital practices and business models looks set to drive a clean up of problematic digital practices that have been able to proliferate under no or very light touch regulation, prior to now.</p><div class="page" title="Page 30" style="box-sizing: inherit; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;"><div class="layoutArea" style="box-sizing: inherit; background-repeat: no-repeat no-repeat;"><div class="column" style="box-sizing: inherit; background-repeat: no-repeat no-repeat;"><p style="box-sizing: inherit; margin: 15px 0px; background-repeat: no-repeat no-repeat;" class="">The HLEG also calls for support for developing mechanisms for the protection of personal data, and for individuals to “control and be empowered by their data” — which they argue would address “some aspects of the requirements of trustworthy AI”.</p><p style="box-sizing: inherit; margin: 15px 0px; background-repeat: no-repeat no-repeat;" class="">“Tools should be developed to provide a technological implementation of the GDPR and develop privacy preserving/privacy by design technical methods to explain criteria, causality in personal data processing of AI systems (such as federated machine learning),” they write.</p><p style="box-sizing: inherit; margin: 15px 0px; background-repeat: no-repeat no-repeat;" class="">“Support technological development of anonymisation and encryption techniques and develop standards for secure data exchange based on personal data control. Promote the education of the general public in personal data management, including individuals’ awareness of and empowerment in AI personal data-based decision-making processes. Create technology solutions to provide individuals with information and control over how their data is being used, for example for research, on consent management and transparency across European borders, as well as any improvements and outcomes that have come from this, and develop standards for secure data exchange based on personal data control.”</p></div></div></div><p style="box-sizing: inherit; margin: 15px 0px; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;" class="">Other policy suggestions among the many included in the HLEG’s report are that AI systems which interact with humans should include a mandatory self-identification. Which would mean no <a href="https://techcrunch.com/2018/05/10/duplex-shows-google-failing-at-ethical-and-creative-ai-design/" style="box-sizing: inherit; text-decoration-skip: objects; text-decoration: none; color: rgb(0, 165, 98); border-bottom-width: 1px; border-bottom-style: solid; border-bottom-color: rgb(241, 241, 241); transition: color, border-color 0.2s linear; background-repeat: no-repeat no-repeat;" class="">sneaky Google Duplex human-speech mimicking bots</a>. In such a case the bot would have to introduce itself up front — thereby giving the human caller a chance to disengage.</p><p style="box-sizing: inherit; margin: 15px 0px; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;" class="">The HLEG also recommends establishing a “<span style="box-sizing: inherit; font-size: 1.125rem; letter-spacing: -0.1px; background-repeat: no-repeat no-repeat;" class="">European Strategy for Better and Safer AI for Children”. Concern and queasiness about rampant</span> <a href="https://techcrunch.com/2018/11/09/children-are-being-datafied-before-weve-understood-the-risks-report-warns/" style="box-sizing: inherit; text-decoration-skip: objects; text-decoration: none; color: rgb(0, 165, 98); border-bottom-width: 1px; border-bottom-style: solid; border-bottom-color: rgb(241, 241, 241); transition: color, border-color 0.2s linear; background-repeat: no-repeat no-repeat;" class="">datafication of children</a>, including via commercial tracking of their use of online services, has been raised  in multiple EU member states.</p><div class="page" title="Page 15" style="box-sizing: inherit; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;"><div class="layoutArea" style="box-sizing: inherit; background-repeat: no-repeat no-repeat;"><div class="column" style="box-sizing: inherit; background-repeat: no-repeat no-repeat;"><p style="box-sizing: inherit; margin: 15px 0px; background-repeat: no-repeat no-repeat;" class="">“The integrity and agency of future generations should be ensured by providing Europe’s children with a childhood where they can grow and learn untouched by unsolicited monitoring, profiling and interest invested habitualisation and manipulation,” the group writes. “Children should be ensured a free and unmonitored space of development and upon moving into adulthood should be provided with a “clean slate” of any public or private storage of data related to them. Equally, children’s formal education should be free from commercial and other interests.”</p><p style="box-sizing: inherit; margin: 15px 0px; background-repeat: no-repeat no-repeat;" class="">Member states and the Commission should also devise ways to continuously “analyse, measure and score the societal impact of AI”, suggests the HLEG — to keep tabs on positive and negative impacts so that policies can be adapted to take account of shifting effects.</p><p style="box-sizing: inherit; margin: 15px 0px; background-repeat: no-repeat no-repeat;" class="">“A variety of indices can be considered to measure and score AI’s societal impact such as the UN Sustainable Development Goals and the Social Scoreboard Indicators of the European Social Pillar. The EU statistical programme of Eurostat, as well as other relevant EU Agencies, should be included in this mechanism to ensure that the information generated is trusted, of high and verifiable quality, sustainable and continuously available,” it suggests. “AI-based solutions can help the monitoring and measuring its societal impact.”</p><p style="box-sizing: inherit; margin: 15px 0px; background-repeat: no-repeat no-repeat;" class="">The report is also heavy on pushing for the Commission to bolster investment in AI — calling particularly for more help for startups and SMEs to access funding and advice, including via the InvestEU program.</p><p style="box-sizing: inherit; margin: 15px 0px; background-repeat: no-repeat no-repeat;" class="">Another suggestion is the creation of an<span style="box-sizing: inherit; font-size: 1.125rem; letter-spacing: -0.1px; background-repeat: no-repeat no-repeat;" class=""> EU-wide network of AI business incubators to connect academia and industry. </span><span style="box-sizing: inherit; font-size: 1.125rem; letter-spacing: -0.1px; background-repeat: no-repeat no-repeat;" class="">“This could be coupled with the creation of EU-wide Open Innovation Labs, which could be built further on the structure of the Digital Innovation Hub network,” it continues. </span></p><p style="box-sizing: inherit; margin: 15px 0px; background-repeat: no-repeat no-repeat;" class="">There are also calls to encourage public sector uptake of AI, such as by f<span style="box-sizing: inherit; font-size: 1.125rem; letter-spacing: -0.1px; background-repeat: no-repeat no-repeat;" class="">ostering digitalisation by transforming public data into a digital format; providing </span><span style="box-sizing: inherit; font-size: 1.125rem; letter-spacing: -0.1px; background-repeat: no-repeat no-repeat;" class="">data literacy education to government agencies; c</span><span style="box-sizing: inherit; font-size: 1.125rem; letter-spacing: -0.1px; background-repeat: no-repeat no-repeat;" class="">reating European large annotated public non-personal databases for “high quality AI”; and funding</span><span style="box-sizing: inherit; font-size: 1.125rem; letter-spacing: -0.1px; background-repeat: no-repeat no-repeat;" class=""> and facilitating the development of AI tools that can assist in detecting biases and undue prejudice in governmental decision-making.</span></p></div></div></div><p style="box-sizing: inherit; margin: 15px 0px; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;" class="">Another chunk of the report covers recommendations to try to bolster AI research in Europe — such as s<span style="box-sizing: inherit; font-size: 1.125rem; letter-spacing: -0.1px; background-repeat: no-repeat no-repeat;" class="">trengthening and creating additional Centres of Excellence which address strategic research topics and become “a European level multiplier for a specific AI topic”.</span></p><p style="box-sizing: inherit; margin: 15px 0px; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;" class="">Investment in AI infrastructures, such as <span style="box-sizing: inherit; font-size: 1.125rem; letter-spacing: -0.1px; background-repeat: no-repeat no-repeat;" class="">distributed clusters and edge computing, large RAM and fast networks, and a </span>network of testing facilities and sandboxes is also urged; along with s<span style="box-sizing: inherit; font-size: 1.125rem; letter-spacing: -0.1px; background-repeat: no-repeat no-repeat;" class="">upport for an EU-wide data repository “through common annotation and standardisation” — to work against data siloing, as well as trusted data spaces for specific sectors such as healthcare, automative and agri-food.</span></p><p style="box-sizing: inherit; margin: 15px 0px; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;" class="">The push by the HLEG to accelerate uptake of AI has drawn some criticism, with digital rights group Access Now’s European policy manager, Fanny Hidvegi, <a href="https://www.accessnow.org/european-union-more-big-words-on-ai-but-where-are-the-actions/" style="box-sizing: inherit; text-decoration-skip: objects; text-decoration: none; color: rgb(0, 165, 98); border-bottom-width: 1px; border-bottom-style: solid; border-bottom-color: rgb(241, 241, 241); transition: color, border-color 0.2s linear; background-repeat: no-repeat no-repeat;" class="">writing that</a>: “What we need now is not more AI uptake across all sectors in Europe, but rather clarity on safeguards, red lines, and enforcement mechanisms to ensure that the automated decision making systems — and AI more broadly — developed and deployed in Europe respect human rights.”</p><p style="box-sizing: inherit; margin: 15px 0px; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;" class="">Other ideas in the HLEG’s report include developing and implementing a European curriculum for AI; and m<span style="box-sizing: inherit; font-size: 1.125rem; letter-spacing: -0.1px; background-repeat: no-repeat no-repeat;" class="">onitoring and restricting the development of automated lethal weapons — including technologies such as cyber attack tools which are not “actual weapons” but which the group points out “can have lethal consequences if deployed. </span></p><p style="box-sizing: inherit; margin: 15px 0px; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;" class="">The HLEG further suggests EU policymakers refrain from giving AI systems or robots legal personhood, writing: “We believe this to be fundamentally inconsistent with the principle of human agency, accountability and responsibility, and to pose a significant moral hazard.”</p><p style="box-sizing: inherit; margin: 15px 0px; caret-color: rgb(51, 51, 51); color: rgb(51, 51, 51); font-family: "Helvetica Neue", Helvetica, Arial, sans-serif; font-size: 18px; letter-spacing: -0.10000000149011612px; background-repeat: no-repeat no-repeat;" class="">The report can downloaded in full <a href="https://ec.europa.eu/digital-single-market/en/news/policy-and-investment-recommendations-trustworthy-artificial-intelligence" style="box-sizing: inherit; text-decoration-skip: objects; text-decoration: none; color: rgb(0, 165, 98); border-bottom-width: 1px; border-bottom-style: solid; border-bottom-color: rgb(0, 165, 98); transition: color, border-color 0.2s linear; background-repeat: no-repeat no-repeat;" class="">here</a>.</p></div><div class=""><br class=""></div></body></html>