src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Abstract-Med tillkomsten av Cloud computing, storskaliga virtualized compute och datacenter blir vanligt i datorbranschen. Dessa distribuerade system utnyttja råvaruserver hårdvara i massa kvantitet, liknande i teorin till många av de snabbaste Superdatorer som finns idag. Men dessa system kan förbruka en stad värt kraft bara för att köra sysslolös, och kräver lika massiva kylsystem för att hålla servrarna inom normala driftstemperaturer. Detta ger upphov till koldioxidutsläpp och bidrar i hög grad till den växande miljöfrågorna inom den globala uppvärmningen. Green computing, en ny trend för avancerade datorer, försöker lindra detta problem genom att leverera både hög prestanda och minskad strömförbrukning, effektivt maximera total systemeffektivitet. Detta papper fokuserar på schemaläggning av virtuella maskiner i ett datorkluster för att minska strömförbrukningen via tekniken för dynamisk spänningsfrekvensskalning (DVFS). Vi presenterar specifikt utformningen och genomförandet av en effektiv schemaläggningsalgoritm för att fördela virtuella maskiner i ett DVFS-aktiverat kluster genom att dynamiskt skala upp de tillhandahållna spänningarna. Algoritmen studeras via simulering och implementering i ett flerkärnigt kluster. Testresultat och resultatdiskussion motiverar utformningen och genomförandet av schemaläggningsalgoritmen.
I REF använder de teknik för dynamisk spänningsfrekvensskalning (DVFS) för att spara energiförbrukningen på CPU i kluster om schemaläggning.
12,231,480
Power-aware scheduling of virtual machines in DVFS-enabled clusters
{'venue': '2009 IEEE International Conference on Cluster Computing and Workshops', 'journal': '2009 IEEE International Conference on Cluster Computing and Workshops', 'mag_field_of_study': ['Computer Science']}
0
Med den stora mängd ny information som skapas varje dag, avgörande av informationens giltighet i ett kunskapsdiagram och fylla i dess saknade delar är avgörande uppgifter för många forskare och praktiker. För att ta itu med denna utmaning har ett antal metoder för kunskapsgrafikkomplettering utvecklats med hjälp av lågdimensionella grafbäddar. Även om forskarna fortsätter att förbättra dessa modeller med hjälp av ett allt mer komplext funktionsutrymme, visar vi att enkla förändringar i arkitekturen hos den underliggande modellen kan överträffa toppmoderna modeller utan behov av komplex funktionsteknik. I detta arbete presenterar vi en delad variabel neural nätverksmodell som heter ProjE som fyller-in saknade information i en kunskapsgraf genom att lära gemensamma inbäddningar av kunskapsgrafens enheter och kanter, och genom subtila, men viktiga, förändringar i standard förlustfunktion. Genom att göra det har ProjE en parameterstorlek som är mindre än 11 av 15 befintliga metoder samtidigt som den utför 37% bättre än den nuvarande-bästa metoden på standarddatauppsättningar. Vi visar också, genom en ny faktakontroll uppgift, att ProjE är kapabel att exakt avgöra sanningshalten i många deklarativa uttalanden. Knowledge Graphs (KGs) har blivit en viktig resurs för många uppgifter inom maskininlärning, datautvinning och artificiell intelligens applikationer inklusive frågesvar [34], enhet disambiguation [7], namngiven enhet länkning [14], faktakontroll [32], och länk förutsägelse [28] för att nämna några. Enligt vår uppfattning är KG ett exempel på ett heterogent informationsnätverk som innehåller enhet-noder och relation-kanter som motsvarar RDF-stil triples h, r, t där h representerar en huvudenhet, och r är ett förhållande som ansluter h till en svans enhet t. KGs används allmänt för många praktiska uppgifter, men deras korrekthet och fullständighet garanteras inte. Därför är det nödvändigt att utveckla metoder för kunskapsgrafikkomplettering (KGC) för att hitta saknade eller felande relationer med målet att förbättra den allmänna kvaliteten på KG, som i sin tur kan användas för att förbättra eller skapa intressanta nedströmstillämpningar. KGC-uppgiften kan delas upp i två icke-ömsesidigt exklusiva deluppgifter: i) entitetsprognoser och ii) relationsprognoser. Den enhet förutsägelse uppgift tar en partiell trippel h, r,? som indata och tar fram en rangordnad lista över kandidatenheter som utdata: Definition 1. (Entity Ranking Problem) Med tanke på en Kunskap Graph G = {E, R} och en ingång trippel h, r,? , den enhet ranking problem försök att hitta den optimala beställda listan sådan att.e j på i ((e j på E − på E + ) → e i på j ), där E + = {e 1, e 2,............................................................................................................................................ .., e l ), h, r, e på G} och E − = {e... {e l+1, e l+2,.............................................. )......................................................................................................... ........., e.......... )...... ).......................................................................................................................... Särskiljande mellan huvud och svans-enheter är oftast godtyckligt, så vi kan enkelt ersätta h, r,? För?, r, t. Den relation förutsägelse uppgift syftar till att hitta en rankad lista över relationer som förbinder en huvud-enhet med en svans-enhet, dvs., h,?, t. När vi diskuterar detaljerna i det nuvarande arbetet, fokuserar vi specifikt på enheten förutsägelse uppgift; dock är det enkelt att anpassa metoden till relationen förutsägelse uppgift genom att ändra inmatningen. Ett antal KGC-algoritmer har utvecklats under de senaste åren, och de mest framgångsrika modellerna har alla en sak gemensamt: de använder lågdimensionella inbäddningsvektorer för att representera enheter och relationer. Många inbäddade modeller, t.ex., Ostrukturerad [3], TransE [4], TransH [35] och TransR [25] använder en marginalbaserad parvis rankning förlust funktion, som mäter poängen för varje möjligt resultat som L n -avståndet mellan h + r och t. I dessa modeller förlustfunktioner är alla samma, så modeller skiljer sig i hur de omvandlar 1 arXiv:11.05425v1 [cs.AI]
ProjE REF använder en enkel men effektiv delad variabel neurala nätverk.
18,367,155
ProjE: Embedding Projection for Knowledge Graph Completion
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1
Konceptet "Disaggregated Server" har föreslagits för datacenter där samma typ av serverresurser aggregeras i sina respektive pooler, till exempel en beräkningspool, minnespool, nätverkspool och en lagringspool. Varje server konstrueras dynamiskt genom att rätt mängd resurser från dessa pooler fördelas enligt arbetsbelastningens krav. Modularitet, högre förpacknings- och kyleffektivitet och högre resursutnyttjande är några av de fördelar som föreslås. Med uppkomsten av mycket stora datacenter, "moln" som innehåller tiotusentals servrar, har datacenter effektivitet blivit ett viktigt ämne. Få datorchips och systemleverantörer arbetar på och gör ofta meddelanden om kiselfotonik och disaggregerade minnessystem. I det här dokumentet studerar vi avvägningen mellan kostnad och prestanda för att bygga ett delat minnessystem där DRAM-moduler i datacenteret poolas, till exempel i minne-bara chassin och rack. Beräkningspoolen och minnespoolen är sammankopplade med en optisk sammankoppling för att övervinna avstånds- och bandbreddsproblemen för elektriska tyger. Vi konstruerar en enkel kostnadsmodell som inkluderar kostnaden för latency, kostnaden för bandbredd och de besparingar som förväntas från ett disaggregerat minnessystem. Vi identifierar sedan den nivå på vilken ett delat minnessystem blir kostnadsmässigt konkurrenskraftigt med ett traditionellt direktanslutet minnessystem. Vår analys visar att ett disaggregerat minnessystem i rackskala kommer att ha en icke-trivial prestandapåföljd, och vid datacenterskalan är påföljden ogenomförbart hög, och de optiska sammanlänkningskostnaderna är minst en faktor på 10 dyrare än var de ska vara när de jämförs med de traditionella direktanslutna minnessystemen.
Författarna i REF studerade avvägningen mellan kostnader och prestanda för att bygga ett disaggregerat minnessystem; de konstruerade en enkel kostnadsmodell som jämför de besparingar som förväntas från ett disaggregerat minnessystem med de förväntade kostnaderna, såsom latens- och bandbreddskostnader, och identifierade sedan den nivå på vilken ett disaggregerat minnessystem blir kostnadskonkurrent med ett traditionellt direktanslutet minnessystem.
7,563,532
Disaggregated and optically interconnected memory: when will it be cost effective?
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2
Influence maximization är ett välstuderat problem som ber om en liten uppsättning inflytelserika användare från ett socialt nätverk, så att genom att rikta dem som tidiga adoptiv, den förväntade totala antagandet genom inflytande kaskader över nätverket maximeras. Nästan allt tidigare arbete är dock inriktat på kaskader av en enda förökningsenhet eller rent konkurrenskraftiga enheter. I detta arbete föreslår vi modellen Comparative Independent Cascade (Com-IC) som täcker hela spektrumet av enhetsinteraktioner från konkurrens till komplementaritet. I Com-IC är användarnas adoptionsbeslut inte bara beroende av spridning av information på kantnivå, utan också av en nod-nivåautomaton vars beteende styrs av en uppsättning modellparametrar, vilket gör det möjligt för vår modell att fånga inte bara konkurrens, utan också komplementaritet, i möjligaste mån. Vi studerar två naturliga optimeringsproblem, Självinfluens Maximering och Kompletterande Influence Maximering, i en ny miljö med kompletterande enheter. Båda problemen är NP-hårda, och vi utformar effektiva och effektiva approximationsalgoritmer via icke-triviala tekniker baserade på omvänd-uppnåbara uppsättningar och en ny "sandwich approximation" strategi. Båda teknikernas tillämplighet sträcker sig bortom vår modell och våra problem. Våra experiment visar att de föreslagna algoritmerna konsekvent överträffar intuitiva baslinjer i fyra verkliga sociala nätverk, ofta med en betydande marginal. Dessutom lär vi oss modellparametrar från verkliga användaraktivitetsloggar. Recensioner av klassisk IC-modell. I IC-modellen [16] finns det bara en enhet (t.ex. idé eller produkt) som sprids genom nätverket. Ett exempel på modellen har en riktad graf G = (V, E, p) där p : E → [0, 1] och ett frö set S V. För bekvämlighet, använder vi pu,v för p (u, v). Vid tidpunkten steg 0, fröna är aktiva och alla andra noder är inaktiva. Förökning sker i diskreta tidssteg. Vid tiden t, varje nod u som blev aktiv vid t-1 gör ett försök att aktivera var och en av sina inaktiva ut-grannar v. Detta kan ses som nod u "testande" om kanten (u, v) är "levande" eller "blockerad". Den ut-grannen v blir aktiv vid t iff kanten är live. Utbredningen upphör när inga nya noder blir aktiva. Viktiga skillnader från IC-modellen. I den jämförande IC-modellen 1 Ingen generellhet går förlorad i antagandet att fröna antar ett objekt utan att testa NLA: för varje v på V kan vi skapa två overksamma noder vA, vB och kanter (vA, v) och (vB, v) med pv A,v = pv B,v = 1. Att kräva att frön ska gå igenom NLA är likvärdigt med att begränsa att A-frön (B-frön) väljs från alla vA:s (resp. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Det kompletterande yttrandet utvidgas av Lu et al. REF, som föreslog modellen Comparative Independent Cascade (Com-IC) bestående av spridning av information på kantnivå och en Node-Level Automation (NLA) som i slutändan fattar adoptionsbeslut baserade på en uppsättning modellparametrar som kallas Global Adoption Sannolikhet (GAPs), för att ta itu med problemet med kompletterande påverkan Maxibilisering.
3,471,972
From Competition to Complementarity: Comparative Influence Diffusion and Maximization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']}
3
En graf har tillväxthastighet k om antalet noder i någon subgraf med diameter r begränsas av O(r k ). Kommunikationsdiagrammen för trådlösa nätverk och peer-to-peer-nätverk har ofta en liten tillväxttakt. I detta dokument studerar vi avvägningen mellan två kvalitetsåtgärder för routing i tillväxtbegränsade diagram. De två åtgärder vi anser vara stretchfaktorn, som mäter längden på routingbanorna, och lastbalansförhållandet, som mäter hur jämnt trafiken fördelas. Vi visar att om routingalgoritmen krävs för att använda banor med stretchfaktor c, då dess lastbalansförhållande begränsas av O(n/c) 1−1/k ), där k är grafens tillväxthastighet. Vi illustrerar våra resultat genom att fokusera på enhetsdiskkurvan för modellering av trådlösa nätverk där två noder har direktkommunikation om deras avstånd ligger under en viss tröskel. Vi visar att om den maximala densiteten av noderna begränsas av ρ, det finns routing schema så att stretchfaktorn för routing vägar är som mest c, och den maximala belastningen på noderna är som mest O(min( ρn/c, n/c) gånger den optimala. Dessutom är belastningsbalansförhållandet snävt i värsta fall. Som ett specialfall, när densiteten begränsas av en konstant, den kortaste vägen routing har en belastning balanserande förhållande av O ( ε n). Resultatet sträcker sig till k-dimensionella enhet bollen grafer och grafer med tillväxthastighet k. Vi diskuterar också algoritmiska frågor för belastning balanserad kort väg routing och för belastning balanserad routing i skiftnyckel grafer.
För till exempel tillväxtbundna trådlösa nätverk visar Gao och Zhang REF routing-algoritmer som samtidigt uppnår en stretchfaktor på c och ett belastningsbalansförhållande på O(n/c) 1−1/k ) där k är tillväxthastigheten.
207,794
Tradeoffs between stretch factor and load balancing ratio in routing on growth restricted graphs
{'venue': "PODC '04", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
4
I detta dokument introduceras nya optimalitetsbevarande operatörer på Q-funktioner. Vi beskriver först en operatör för tabular representationer, den konsekventa Bellman operatör, som innehåller ett begrepp om lokal policy konsekvens. Vi visar att denna lokala konsekvens leder till en ökning av åtgärdsklyftan i varje stat; att öka denna klyfta, menar vi, lindrar de oönskade effekterna av approximations- och skattningsfel på den giriga politik som framkallas. Denna operatör kan också appliceras på diskretiserade kontinuerliga rymd- och tidsproblem, och vi ger empiriska resultat som visar överlägsen prestanda i detta sammanhang. Utöka idén om en lokalt konsekvent operatör, vi får sedan tillräckliga villkor för en operatör för att bevara optimalitet, vilket leder till en familj av operatörer som inkluderar vår konsekventa Bellman operatör. Som corollaries ger vi ett bevis på optimalitet för Bairds fördel lärande algoritm och härleda andra gap-ökande operatörer med intressanta egenskaper. Vi avslutar med en empirisk studie av 60 Atari 2600 spel som illustrerar de nya operatörernas starka potential. Värdebaserat förstärkande lärande är en attraktiv lösning på planeringsproblem i miljöer med okänd, ostrukturerad dynamik. I sin kanoniska form ger värdebaserat förstärkande lärande successiva förbättringar av en initial värdefunktion genom upprepad tillämpning av en konvergent operatör. I synnerhet, värde iteration (Bellman 1957) direkt beräknar värdefunktionen genom den itererade utvärderingen av Bellmans ekvation, antingen exakt eller från prover (t.ex. Q-lärande, Watkins 1989). I sin enklaste form, värde iteration börjar med en initial värdefunktion V 0 och successivt beräknar V k+1 := T V k, där T är Bellman operatör. När miljödynamiken är okänd, V k vanligtvis ersätts av Q k, status-action värde funktion, och T approximeras av en empirisk Bellman operatör. Den fasta punkten för Bellman operatör, Q *, är den optimala status-action värde funktion eller optimal Q-funktion, från vilken en optimal policy π * kan återvinnas. I detta dokument hävdar vi att den optimala Q-funktionen är inkonsekvent, i den meningen att för varje åtgärd en som är subop- * Nu vid Carnegie Mellon University. Copyright c 2016, Association for the Advancement of Artificial Intelligence (www.aaai.org). Alla rättigheter förbehållna. Timal i tillstånd x, Bellmans ekvation för Q * (x, a) beskriver värdet av en icke-stationär politik: när du återvänder till x, väljer denna policy π * (x) snarare än a. Samtidigt som det verkar opraktiskt att bevara global konsekvens föreslår vi en enkel ändring för Bellman-operatören som ger oss en första ordningens lösning på inkonsekvensproblemet. Därför kallar vi vår nya operatör den konsekventa Bellman-operatören. Vi visar att den konsekventa Bellman-operatören i allmänhet devalverar suboptimala åtgärder men bevarar den optimala policyn. Som ett resultat av detta ökar åtgärdsklyftan – värdeskillnaden mellan optimala och näst bästa åtgärder. Att öka åtgärdsgapet är fördelaktigt i närvaro av approximation eller skattningsfel (I den andra halvan av detta papper härleder vi nya tillräckliga villkor för en operatör för att bevara optimalitet. Den relativa svagheten i dessa nya villkor visar att det är möjligt att avvika avsevärt från Bellman operatören utan att offra optimalitet: en optimal-bevarande operatör behöver inte vara kontraktiv, inte ens garantera konvergens av Q-värden för suboptimala åtgärder. Medan många alternativ till Bellman operatör har lagts fram (t.ex. nyligen Azar et al. 2011; Bertsekas och Yu 2012), Vi anser att vårt arbete att vara den första att föreslå en sådan stor avvikelse från den kanoniska fast punkt villkor som krävs från en optimal-bevarande operatör. Som bevis på rikedomen i denna nya operatörsfamilj beskriver vi några praktiska momentiationer med unika egenskaper. Vi använder våra operatörer för att få toppmodern empirisk
Mer nyligen visade det sig att fördelen lärande algoritm är en gap-ökande operatör REF.
1,907,310
Increasing the Action Gap: New Operators for Reinforcement Learning
{'venue': 'Bellemare, Marc G., Ostrovski, G., Guez, A., Thomas, Philip S., and Munos, Remi. Increasing the Action Gap: New Operators for Reinforcement Learning. Proceedings of the AAAI Conference on Artificial Intelligence, 2016', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5
Blir fonologisk variation transkriberad i sociala mediers text? I detta dokument undersöks exempel på den fonologiska variabeln för konsonant klusterreduktion i Twitter. Inte bara denna variabel visas ofta, men den visar samma känslighet för språkligt sammanhang som i det talade språket. Detta tyder på att när sociala medier skriver transkriberar fonologiska egenskaper i tal, är det inte bara ett fall av uppfinnande ortografiska transkriptioner. I stället visar sociala medier inflytande från det fonologiska systemets strukturella egenskaper.
REF analyserar fonologiska faktorer i skrivandet av sociala medier.
2,655,326
Phonological Factors in Social Media Writing
{'venue': 'LASM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
6
I detta dokument presenteras ett förfarande för statistiska beslut för att lösa lexikal tvetydighet. Algoritmen utnyttjar både lokala syntaktiska mönster och mer avlägsna collocational bevis, vilket genererar ett effektivt, effektivt och mycket perpikuöst recept för att lösa en given tvetydighet. Genom att identifiera och använda endast den enda bästa disambiguating bevis i ett målsammanhang, algoritmen undviker problematiska komplexa modellering av statistiska beroenden. Även om algoritmen är direkt tillämplig på en bred klass av tvetydigheter, beskrivs och utvärderas den i en realistisk fallstudie, problemet med att återställa saknade accenter i spansk och fransk text. Nuvarande noggrannhet överstiger 99% på hela uppgiften, och normalt är över 90% för även de svåraste tvetydigheter.
I REF presenteras ett statistiskt förfarande för lexikal tvetydighet, baserat på beslutslistor, som gav goda resultat när man tillämpade accentrenovering på spanska och franska.
1,580,335
Decision Lists For Lexical Ambiguity Resolution: Application To Accent Restoration In Spanish And French
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7
Online innehåll uppvisar rik temporal dynamik, och olika realtidsanvändare genererade innehåll ytterligare intensifierar denna process. Tidsbundna mönster genom vilka online-innehåll växer och bleknar med tiden, och genom vilka olika delar av innehållet konkurrerar om uppmärksamhet förblir dock i stort sett outforskade. Vi studerar temporal mönster i samband med online-innehåll och hur innehållets popularitet växer och bleknar med tiden. Den uppmärksamhet som innehållet får på webben varierar beroende på många faktorer och sker på mycket olika tidsskalor och vid olika upplösningar. För att avslöja temporal dynamik av online-innehåll formulerar vi en tidsserie kluster problem med hjälp av en likhetsmått som är invariant till skalning och skiftning. Vi utvecklar K-Spectral Centroid (K-SC) klusteralgoritm som effektivt finner klustercentroider med vår likhetsmått. Genom att tillämpa en adaptiv våget-baserad inkrementell strategi för klusterbildning, skalar vi K-SC till stora datamängder. Vi visar vår strategi för två massiva dataset: en uppsättning av 580 miljoner Tweets, och en uppsättning av 170 miljoner blogginlägg och nyhetsmedia artiklar. Vi finner att K-SC överträffar K-means klusteralgoritm när det gäller att hitta olika former av tidsserier. Vår analys visar att det finns sex huvudsakliga timliga former av uppmärksamhet av online-innehåll. Vi presenterar också en enkel modell som tillförlitligt förutsäger formen av uppmärksamhet genom att använda information om endast ett litet antal deltagare. Våra analyser ger insikt i vanliga temporalmönster av innehållet på webben och breddar förståelsen av dynamiken i människans uppmärksamhet.
Yang och Leskovec REF beskriver sex klasser av timliga former av uppmärksamhet.
1,412,278
Patterns of temporal variation in online media
{'venue': "WSDM '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
8
Klassificering av markanvändning är en grundläggande uppgift för informationsutvinning från fjärranalysbilder. Semantisk segmentering baserad på djupa konvolutionella neurala nätverk (DCNN) har visat enastående prestanda i denna uppgift. Dessa metoder påverkas dock fortfarande av förlusten av rumsliga funktioner. I denna studie föreslog vi ett nytt nätverk, det så kallade tät-koordconv-nätverket (DCCN), för att minska förlusten av rumsliga funktioner och stärka objektgränserna. I detta nätverk introduceras coordconv-modulen i den förbättrade DenseNet-arkitekturen för att förbättra rumslig information genom att samordna information i funktionskartor. Den föreslagna DCCN uppnådde en uppenbar prestanda när det gäller den offentliga ISPRS (International Society for Photogrammetrie and Remote Sensing) 2D semantisk märkning av referensdatauppsättningen. Jämfört med resultaten från andra djupa konvolutionella neurala nätverk (U-net, SegNet, Deeplab-V3), förbättrade resultaten av DCCN-metoden mycket och OA (total noggrannhet) och genomsnittliga F1-poäng uppgick till 89,48% respektive 86,89%. Detta indikerar att DCCN-metoden effektivt kan minska förlusten av rumsliga funktioner och förbättra noggrannheten hos semantisk segmentering i högupplösta fjärranalysbilder.
Yao och Al. I REF föreslogs det täta Cordconv-nätet (DCCN) för att minska förlusten av rumsliga funktioner och stärka objektgränserna.
195,357,122
Land Use Classification of the Deep Convolutional Neural Network Method Reducing the Loss of Spatial Features
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
9
Vi beskriver en metod för att integrera syntaktisk information i statistiska maskinöversättningssystem. Det första steget i metoden är att tolka källkodssträngen som översätts. Det andra steget är att tillämpa en serie omvandlingar på parseträdet, och på ett effektivt sätt omordna ytsträngen på källspråkssidan av översättningssystemet. Målet med detta steg är att återställa en underliggande ordordning som är närmare målet språkordordningen än den ursprungliga strängen. Omordningsmetoden tillämpas som ett förbearbetningssteg i både utbildnings- och avkodningsfaserna i ett frasbaserat statistiskt MT-system. Vi beskriver experiment på översättning från tyska till engelska, visar en förbättring från 25,2% Bleu score för ett baslinjesystem till 26,8% Bleu score för systemet med omordning, en statistiskt signifikant förbättring.
Till exempel, REF tolkar meningarna i källspråket och omstrukturera ordordningen, så att den matchar målspråket ordordning närmare.
11,142,668
Clause Restructuring For Statistical Machine Translation
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10
Abstrakt. Eftersom en oriktad graf G = (V, E), densiteten av en subgraf på vertex uppsättning S definieras som d(S) =, Där E(S) är uppsättningen av kanter i subgrafen som induceras av noder i S. Att hitta subgrafer av maximal densitet är ett mycket väl studerat problem. Man kan också generalisera detta begrepp till riktade grafer. För en riktad graf ett begrepp av densitet ges av Kannan och Vinay [12] är följande: givna undergrupper S och T av hörn, densiteten av subgrafen, Där E(S, T ) är uppsättningen av kanter som går från S till T. Utan någon storlek begränsningar, en subgraph av maximal densitet kan hittas i polynom tid. När vi kräver att subgrafen ska ha en angiven storlek blir problemet med att hitta en subgraf med maximal densitet N P - hård. I detta papper fokuserar vi på att utveckla snabba polynom tid algoritmer för flera variationer av täta subgraph problem för både riktade och oriktade grafer. När det inte finns någon storleksbindning, utökar vi den flödesbaserade tekniken för att erhålla en tätaste subgraf i riktade grafer och ger även en linjär tid 2- approximation algoritm för det. När en lägre gräns anges för både riktade och oriktade fall, visar vi att problemet är NP-komplett och ger snabba algoritmer för att hitta subgrafer inom en faktor 2 av den optimala densiteten. Vi visar också att det är lika svårt att lösa det tätaste subgrafproblemet med en övre gräns på storleken som att lösa problemet med en exakt storleksbegränsning, inom en konstant faktor.
I REF tar de också hänsyn till täthetsversionerna av problemen i riktade grafer.
1,774,289
On finding dense subgraphs
{'venue': 'In ICALP ’09', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
11
Välfördelad punktuppsättningar spelar en viktig roll i en mängd olika datorgrafik sammanhang, såsom anti-aliasing, global belysning, halvtoning, icke-fotorealistisk rendering, punktbaserad modellering och rendering, och geometri bearbetning. I detta dokument introducerar vi en ny teknik för att snabbt generera stora punktuppsättningar med ett blått ljud Fourier spektrum och hög visuell kvalitet. Vår teknik genererar icke-periodiska punktuppsättningar, fördelade över godtyckligt stora områden. Den lokala densiteten hos en punktuppsättning kan förskrivas av en godtycklig måldensitetsfunktion, utan förinställd bindning till den maximala densiteten. Vår teknik är deterministisk och kakelbaserad; därför kan varje lokal del av en potentiellt oändlig punktuppsättning konsekvent regenereras vid behov. Minnesavtrycket av tekniken är konstant, och kostnaden för att generera någon lokal del av punkten uppsättningen är proportionell mot integralen över måltätheten i det området. Dessa egenskaper gör vår teknik mycket lämplig för en mängd olika interaktiva applikationer i realtid, varav några visas i tidningen. Vår teknik använder en uppsättning noggrant konstruerade progressiva och rekursiva blå buller Wang plattor. Användningen av Wang kakel möjliggör generering av oändliga icke-periodiska tilings. De progressiva punktuppsättningarna inuti varje kakel kan producera rumsligt varierande punkttätheter. Recursion tillåter vår teknik att adaptivt dela brickor endast där hög densitet krävs, och gör det möjligt att zooma in i punktuppsättningar med en godtycklig mängd, samtidigt som en konstant skenbar densitet bibehålls.
Tekniken för REF genererar icke-periodiska punktuppsättningar som kan användas för tiling, vilket gör det möjligt för tittarna att interaktivt ändra storlek på stripple-avbildningen.
11,007,853
Recursive Wang tiles for real-time blue noise
{'venue': "SIGGRAPH '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
12
Abstract-Content-centric networking (CCN) är ett lovande ramverk för att bygga upp Internets speditionssubstrat kring begreppet innehåll. CCN förespråkar allmänt förekommande cachelagring i nätverk för att förbättra leveransen av innehåll, och därför har varje router lagringsutrymme för att cache ofta efterfrågat innehåll. I detta arbete fokuserar vi på problemet med tilldelning av cache, nämligen hur man distribuerar cachekapaciteten mellan routrar inom ramen för en begränsad total lagringsbudget för nätverket. Vi formulerar först detta problem som ett problem med innehållsplacering och får den optimala lösningen med en tvåstegsmetod. Vi föreslår sedan en suboptimal heuristisk metod baserad på node centrality, som är mer praktisk i dynamiska nätverk med frekvent innehållspublicering. Vi undersöker genom simuleringar de faktorer som påverkar den optimala cachetilldelningen, och kanske viktigare är att vi använder en verklig Internet topologi och videoåtkomstloggar från en storskalig Internetvideoleverantör för att utvärdera prestandan hos olika cacheallokeringsmetoder. Vi observerar att nätverk topologi och innehåll popularitet är två viktiga faktorer som påverkar var exakt bör cache kapacitet placeras. Dessutom kommer den heuristiska metoden med endast en mycket begränsad prestationspåföljd jämfört med den optimala tilldelningen. Slutligen, med hjälp av våra resultat, ger vi rekommendationer till nätoperatörer om den bästa spridningen av CCN-cachekapacitet över routrar.
Wang m.fl. REF tar upp fördelningen av cachekapaciteten mellan routrar inom ramen för en begränsad total lagringsbudget för nätet.
12,943,609
Design and Evaluation of the Optimal Cache Allocation for Content-Centric Networking
{'venue': 'IEEE Transactions on Computers', 'journal': 'IEEE Transactions on Computers', 'mag_field_of_study': ['Computer Science']}
13
Sekvens till sekvens lärande modeller fortfarande kräver flera dagar för att nå toppmodern prestanda på stora referensdataset med hjälp av en enda maskin. Detta papper visar att minskad precision och stor batch träning kan påskynda träningen med nästan 5x på en enda 8-GPU maskin med noggrann inställning och genomförande. 1 På WMT'14 engelsk-tyska översättning, matchar vi exaktheten av Vaswani et al. (2017) på mindre än 5 timmar när utbildning på 8 GPUs och vi får en ny state of the art av 29,3 BLEU efter utbildning i 85 minuter på 128 GPUs. Vi förbättrar dessa resultat ytterligare till 29,8 BLEU genom utbildning på den mycket större Paracrawl dataset. På WMT'14 engelskafranska uppgiften får vi en toppmodern BLEU på 43,2 på 8,5 timmar på 128 GPU.
Andra arbeten visar att utbildning på 128 GPUs kan avsevärt öka de experimentella resultaten och förkorta utbildningstiden REF.
44,131,019
Scaling Neural Machine Translation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14
Emojis har utvecklats som kompletterande källor för att uttrycka känslor i sociala medier där inlägg huvudsakligen består av texter och bilder. För att öka expressiviteten hos de sociala mediernas inlägg associerar användarna relevanta emojis med sina inlägg. Inkorporera domänkunskap har förbättrat maskinförståelsen av text. I detta dokument undersöker vi om domänkunskap för emoji kan förbättra noggrannheten av emoji rekommendation uppgift vid multimedia inlägg som består av bild och text. Vår emoji rekommendation kan föreslå exakta emojis genom att utnyttja både visuellt och textmässigt innehåll från sociala medier inlägg samt domän kunskap från Emojinet. Experimentella resultat med hjälp av förtränade bildsorter och förtränade modeller för inbäddning av ord på Twitterdata visar att våra resultat överträffar dagens toppmoderna med 9,6%. Vi presenterar också en användarstudieutvärdering av vårt rekommendationssystem på en uppsättning bilder valda från MSCOCO dataset.
Emojinet har också förbättrat noggrannheten i emoji förutsägelse vid bilder REF.
52,096,100
Which Emoji Talks Best for My Picture?
{'venue': '2018 IEEE/WIC/ACM International Conference on Web Intelligence (WI)', 'journal': '2018 IEEE/WIC/ACM International Conference on Web Intelligence (WI)', 'mag_field_of_study': ['Computer Science']}
15
Det har gått flera år sedan Massive Open Online Courses (MOOC) trädde in i högskolemiljön och många former har kommit fram från detta nya sätt att förvärva kunskap. Lärare har integrerat MOOCs med mer eller mindre framgång i en traditionell klassrumsmiljö för att stödja olika inlärningspreferenser, införa detta nya sätt att lära för studenter, och göra lärande tillgängligt för dem som kanske inte kan följa traditionella instruktioner. Detta papper undersöker en blandad inlärningsmodell där en MOOC har integrerats i ett traditionellt klassrum. Ett läranderesultatbaserat tillvägagångssätt genomfördes som stödde en balanserad studiebörda. Kvalitativt tillvägagångssätt användes för att analysera elevernas lärodagböcker. Baserat på denna forskning identifierades fördelarna med att integrera en MOOC med klassrumsbaserad undervisning, samt hinder som kan hindra ett framgångsrikt genomförande. Det ges rekommendationer till lärare.
I REF föreslog Bralić och Divjak en blandad inlärningsmodell som integrerar Massive Open Online Course (MOOC) i ett traditionellt klassrum.
20,647,488
Integrating MOOCs in traditionally taught courses: achieving learning outcomes with blended learning
{'venue': 'International Journal of Educational Technology in Higher Education', 'journal': 'International Journal of Educational Technology in Higher Education', 'mag_field_of_study': ['Sociology']}
16
I detta dokument förespråkas en utvidgning av den roll som Bayesian statistiska slutsatser spelar när det formellt kvantifierar osäkerheten i datormodeller som definieras av system med vanliga eller partiella differentialekvationer. Vi antar perspektivet att implicit definierade oändliga dimensionella funktioner som representerar modelltillstånd är objekt som kan härledas probabilistiskt. Vi utvecklar en allmän metod för probabilistisk integration av differentialekvationer genom modellbaserad uppdatering av en gemensam föregående åtgärd om funktionernas utrymme och deras tidsbundna och rumsliga derivat. Detta resulterar i ett bakre mått över funktioner som återspeglar hur väl de uppfyller systemet med differentialekvationer och motsvarande initial- och gränsvärden. Vi visar hur denna bakre åtgärd naturligt kan införlivas i Kennedys och O'Hagans ramverk för osäkerhetskvantifiering och ger ett helt Bayesianskt förhållningssätt till modellkalibrering. Genom att ta denna probabilistiska ståndpunkt, kan den fulla kraften av Bayesian inference utnyttjas när man försöker konsekvent kvantifiera och sprida epistemisk osäkerhet i datormodeller av komplexa naturliga och fysiska system. Ett brett utbud av exempel ges för att illustrera potentialen i detta ramverk för att karakterisera diskretiseringsosäkerhet, inklusive initialvärde, fördröjning och gränsvärde differentialekvationer, samt partiella differentialekvationer. Vi demonstrerar också vår metodik på ett storskaligt system, genom att modellera diskretization osäkerhet i lösningen av Navier-Stokes ekvationer av vätskeflöde, reduceras till över 16.000 kopplade och stela vanliga differentialekvationer. Slutligen diskuterar vi det breda spektrum av öppna forskningsteman som följer av det arbete som presenteras. Nyckelord: Bayesian Numerical Analysis, Osäkerhet Kvantifiering, Gaussian Processes, Differentialekvation Modeller, Osäkerhet i datormodeller. I alla vetenskaper, ekonomi och ingenjörskonst finns det en grundläggande tillit till användningen av differentialekvation modeller för att beskriva komplexa fenomen koncist, med hjälp av få men lätt att tolka parametrar, som vi betecknar med. I system av differentialekvationer, derivata med avseende på rumsliga variabler, x-D-D-D, och temporalvariabler, t-A-[a, b]-R+, är relaterade till implicit definierade tillstånd, u-x, t)-R-P, som därför ofta är analytiskt svåråtkomliga. Den största utmaningen med att arbeta med differentialekvationsmodeller, både ur matematiska och statistiska perspektiv, är att lösningarna i allmänhet inte är tillgängliga i sluten form. Följaktligen används numeriska lösare för att approximera en systemlösning över ett diskretiseringsgaller. Numerisk integration av ett system av differentialekvationer ger en deterministisk approximation baserad på subjektiva val avseende ordningen på den numeriska metoden, den angivna feltoleransen och det implicita diskretiseringsnätet, som alla påverkar kvaliteten på approximationen (Butcher, 2008; Higham, 1996). Dessa metoder gör implicit starka antaganden, till exempel att små förändringar i stegstorleken resulterar i små kumulativa förändringar i produktionen, och att det finns en unik, välutrustad lösning. Dessutom är meningsfulla slutsatser från modellen beroende av antagandet att de ungefärliga tillstånden innehåller försumbara numeriska fel. Även om den angivna feltoleransen och tillhörande punktvisa fel kan minskas genom att förfina diskretiseringsnätet, finns det naturligtvis en avräkning mellan den beräknade ansträngningen och noggrannheten i den approximerade lösningen, som avgör om antagandet av försumbart fel är rimligt i * [email protected]; adress: Department of Statistics, The Ohio State University, 1958 Neil Avenue, 404 Cockins Hall, Columbus, OH 43210-1247 1 arXiv:1306365v2 [stat.ME] 28 Apr 2014 praxis. Lokala och globala numeriska fel definieras punktmässigt och relaterar till det asymptotiska beteendet hos modellens deterministiska approximation. Denna form av numerisk felanalys är inte lämplig för att kvantifiera den funktionella osäkerheten i lösningen i syfte att helt probabilistiska modellslutsatser. En ytterligare utmaning när man arbetar med modeller med differentialekvation är att klassiska approximationer av lösningar i vissa fall ger potentiellt vilseledande banor. Långtidsnumeriska lösningar kan vara globalt känsliga för trunkeringsfel som införs vid varje diskretiseringspunkt (t.ex. Sauer et al., 1997).............................................................. Illconditioned modeller kan ge upphov till en annan källa till osäkerhet i form av lösning multiplicity (Ascher et al., 1988; Beyn och Doedel, 1981). Detta kan ofta inte lätt verifieras analytiskt och utgör tydligt ett problem för klassiska numeriska integrationsmetoder som producerar en enda deterministisk lösning (Keller, 1968). I detta dokument tar vi upp de modelleringsutmaningar som uppstår vid användning av följande klasser av deterministiska vanliga och partiella differentialekvationsmodeller, för vilka analytiska lösningar i allmänhet inte finns tillgängliga. Vanliga differentialekvationsmodeller (ODE) representerar implicit derivatan av stater u(t), med avseende på tid t t genom ut (t) := dt u(t) = f (t, u(t), där vi gör standard antagandet att f är kontinuerlig i det första argumentet och Lipschitz kontinuerlig i det andra argumentet. Ingångar och gränsbegränsningar definierar flera modellvarianter. Initial Value Problem (IVP) modellerar systemet tillstånd med fast initialt tillstånd u * (a), utvecklas enligt ODE enligt följande, u t (t) = f t, u(t), till, t [a, b], u(a) = u * (a). Förekomsten av en lösning garanteras under milda förhållanden (se till exempel Butcher, 2008; Coddington och Levinson, 1955). Sådana modeller kan vara högdimensionella och innehålla andra komplexiteter såsom algebraiska komponenter, funktionella ingångar eller högre ordertermer. Medan IVP-modeller anger ett fast initialt villkor på systemet tillstånd, kan Mixed Boundary Value Problem (MBVP) begränsa olika tillstånd vid olika tidpunkter. Vanligtvis är dessa begränsningar pålagda i slutet av tidsdomänen vilket ger den allmänna formen för två tillstånd blandade gränsvärdesproblem, som enkelt kan generaliseras till högre dimensioner och extrapoleras efter slutpunkten b. Medan en unik IVP-lösning existerar under relativt milda förhållanden, kan införandet av blandade gränsbegränsningar resultera i flera lösningar (t.ex. Keller, 1968) inför allvarliga problem för parameteruppskattningsmetoder. Den Delayy Initial Function Problem (DIFP) generaliserar den initiala begränsningen av IVPs till en initial funktion, och därmed relatera derivatan av en process till både nuvarande och tidigare tillstånd vid släpar τ j på [0, ∞), DIFPs är väl lämpade för att beskriva biologisk och fysisk dynamik som tar tid att föröka sig genom system. De utgör dock utmaningar för numeriska tekniker på grund av potentiellt stora och strukturerade trunkering fel (Bellen och Zennaro, 2003). Dessutom kan känsligheten hos DIFP-lösningar till små förändringar i den ursprungliga funktionen, såsom de på grund av interpoleringsfel, driva ett annars väluppfostrade system in i en kaotisk regim (Taylor och Campbell, 2007). Partiell differentialekvation (PDE) modeller representerar derivatan av tillstånd med avseende på flera argument, till exempel tid och rumsliga variabler. De huvudsakliga klasserna av PDE-modeller är baserade på elliptiska, paraboliska och hyperboliska ekvationer. Ytterligare öka deras komplexitet, funktionella gränsbegränsningar och inledande villkor gör PDE-modeller mer utmanande, medan deras underliggande teori är mindre utvecklad jämfört med ODE-modeller (Polyanin och Zaitsev, 2004 Numeriskt diskretiseringsfel karakteriseras ofta i form av en övre gräns, som kallas verifieringsfel i matematik och teknisk litteratur (Oberkampf och Roy, 2010). I de många fall där felet inte är försumbart, t.ex. i storskaliga Navier-Stokes-ekvationer som används vid modellering av vätskeflöde, krävs en korrekt representation av felutbredningen till följd av approximationen. Ett belysande exempel på kvantifiering av detta numeriska fel i fluid dynamics ges av Oliver et al. (2014) och ett preliminärt försök till en bayesisk formalisering av osäkerheten beskrivs av Oliver och Moser (2011). Det tillvägagångssätt som förespråkas i detta dokument är annorlunda till sin natur. Vi karakteriserar diskretiseringsosäkerhet med hjälp av en probabilistisk representation av lösningen beroende på fasta initiala förhållanden och lösningsparametrar. Vår metodik utmanar några av de antaganden som används av numeriska lösare och ger algoritmer robusta för många av de inferentiella problem som uppstår. Större uppmärksamhet ägnas åt de utmaningar som är förknippade med kvantifiering av osäkerheten i systemmodeller, särskilt de som bygger på matematiska beskrivningar av naturliga eller fysiska processer med hjälp av differentialekvationer (Ghanem och Spanos, 2003; Huttunen och Kaipio, 2007; Kaipio m.fl., 2004; Marzouk och Najm, 2009; Marzouk m.fl., 2007; Stuart, 2010). Den viktiga frågan om hur osäkerhet sprids genom komplexa system uppstår i en rad olika sammanhang, och fokus ligger ofta på två huvudproblem. Det framtida problemet handlar om hur indataosäkerheten (dvs. i parametrarna och de ursprungliga förhållandena) sprids över den numeriska banan. Denna typ av problem har undersökts i ingenjörsvetenskap och tillämpad matematik litteratur, som använder sig av provtagningsbaserade metoder, perturbering av initiala systemtillstånd (Mosbach och Turner, 2009), moment stängning metoder, och mer nyligen polynomiska kaos metoder (se Ghanem och Spanos, 2003; Xiu, 2009, för en fullständig översikt). Det omvända problemet gäller osäkerheten i de modellindata som getts mätningar med fel i modellens utgångar, och mycket arbete inom detta område har presenterats i statistiklitteraturen (Bock, 1983; Brunel, 2008; Calderhead och Girolami, 2011; Calderhead et al., 2009; Campbell and Lele, 2013; Campbell and Steele, 2011; Campbell and Chkrebtii, 2013; Dowd, 2007; Gugushvili och Klaasen, 2012; Ionides et al., 2006; Liang and Wu, 2008; Ramsay et al., 2007; Xue et al., 2010; Xun et al., 2014). Dessutom kan det omvända problemet i sig vara okonditionerat när data inte ligger i lösningsutrymmet för differentialekvationsmodellen (Brynjarsdóttir och O'Hagan, 2014; Kennedy och O'Hagan, 2001). Frågan om diskretiseringsosäkerhet är inneboende för både de framåtgående och omvänt problem, och det verkar naturligt att betrakta den okända lösningen av själva differentialekvationen som en del av den inferenta ramen. Det finns många exempel som tyder på att ett probabilistiskt funktionellt tillvägagångssätt är väl lämpat för att modellera lösningsosäkerhet för differentialekvationsmodeller; att lösa PDE:er innebär att uppskatta ett fält, DIFP:er kräver uppskattning av en okänd funktion, och MBVP:er kan ha flera lösningar. Alla dessa problem kan naturligt inramas i termer av åtgärder över ett funktionsutrymme (Stuart, 2010). Ett Bayesianskt funktionellt tillvägagångssätt erbjuder ett sätt att definiera och uppdatera åtgärder över möjliga banor för ett system med differentialekvationer och sprida den resulterande osäkerheten konsekvent genom den inferentiella processen. Den matematiska ramen för att definiera numeriska problem på funktionsytor har utvecklats genom det grundläggande arbetet Stuart (2010), Somersalo (2007), och Skilling (1991), och detta är den naturliga miljö som vi antar i vårt bidrag. Vi utvecklar dessa idéer ytterligare och undersöker allmänna tillvägagångssätt för att arbeta med klasser av differentialekvationer ur ett Bayesiskt perspektiv. Användningen av sannolikhet i numerisk analys har en lång historia. På 1950-talet utvecklades Monte Carlo metoder ursprungligen för att uppskatta analytiskt svåråtkomliga högdimensionella integraler, och förlängningar av denna metod har sedan dess haft en enorm inverkan på en mängd olika områden. Markovkedjan Monte Carlo (MCMC) metoder har gjort det möjligt att snabbt utveckla och tillämpa Bayesian statistiska metoder för att kvantifiera osäkerhet i vetenskapliga och tekniska problem. Teoretiska analyser av Bayesian statistiska metoder för klassisk numerisk analys problem verkar ha daterat hela vägen till Poincaré, som vältaligt sammanfattas av Diaconis (1988). På senare tid har O'Hagan (1992); Skilling (1991) också gett praktiska motiv för att utveckla och använda Bayesianska tekniker för att karakterisera den osäkerhet som är resultatet av beräkningsrestriktioner i fråga om integration, eftersom vi inte kan utvärdera en funktion vid varje punkt i dess inmatningsutrymme och därför måste ta hänsyn till diskretiseringsosäkerhet. Sådant arbete är nära relaterat till idén om dator emulering av stora och komplexa datormodeller; användningen av Gaussiska processer till modellfunktioner som är beräkning mycket dyra att utvärdera har funnit tillämpning inom många utmanande områden av vetenskap, såsom klimat förutsägelse och geofysik (Conti och O'Hagan, 2010; Kennedy 3 och O'Hagan, 2001; Tokmakian et al., 2012). Andra aktuella exempel på att tillämpa Bayesian strategier för numerisk integration inkluderar Hennig och Hauberg (2014), som tillämpar Skillings strategi för beräkning av Riemannian statistik, och Kennedy (1998); Osborne et al. (2012), vars metoder möjliggör en mer välinformerad probabilistisk strategi för valet av integrationspunkter, baserat på den förutsedda variationen i surrogatmodellen givet begränsade funktionsutvärderingar. Sådana metoder förutsätter dock inget fel i själva funktionsutvärderingen och är därför inte tillämpliga på modeller för differentialekvation, där funktionsutvärderingen endast ger ett ungefärligt derivat av systemets lösning vid nästa diskreta tidpunkt, baserat på de aktuella prediktiva fördelningarna över staterna. Syftet med detta dokument är att göra ett argument för att probabilistiskt karakterisera diskretiseringsfel vid lösning av allmänna klasser av differentialekvationer, och för att betrakta denna epistemiska osäkerhet som en viktig och integrerad del av den övergripande modellens inferensram. Vi utvecklar först en probabilistisk differentialekvationslösare som kännetecknar diskretiseringsosäkerhet i lösningen, genom att formalisera och avsevärt utvidga de idéer som först presenterades av Skilling (1991). Den sekventiella provtagningsmetod som föreslås är möjlig att beräkna genom rekursiv Bayesian uppdatering, och den följer noga den sekventiella konstruktionen av ett bevis på överensstämmelse som vi presenterar i tillägget, vilket säkerställer att algoritmen konvergerar till den exakta lösningen eftersom tidssteget tenderar att noll. I vårt tillvägagångssätt behandlar vi de sekventiella modellutvärderingarna som hjälpparametrar, över vilka lösningen sedan kan marginaliseras, och vi utvidgar den grundläggande metoden ytterligare till fall av problem med blandade gränsvärden som uppvisar multiplicitet av lösningar, försenar initiala funktionsproblem med delvis observerade initiala funktioner, stela och kaotiska PDEs via spektral projektion, samt ger en ram för att direkt lösa PDEs. Vi ger ett exempel på skalbarheten av vår strategi med hjälp av ett Navier-Stokes-system som omfattar lösningen på över 16.000 kopplade stela vanliga differentialekvationer. Slutligen antar vi en flexibel och allmän framåtsimuleringsmetod som gör det möjligt för oss att inbädda den formella kvantifieringen av diskretiseringsosäkerhet för differentialekvationer inom ramen för Kennedy och O'Hagan, och därmed definiera den som en del av det fullständiga inferenta förfarandet för inversa problem. Vi tillhandahåller kod för vår Probabilistic Differential Equation Solver (PODES), som tillåter replikering av alla resultat som presenteras i detta dokument. Detta finns på http://web.warwick.ac.uk/PODES. Vi börjar i avsnitt 2 med att diskutera modellavvikelser inom Bayesians strategi för kvantifiering av osäkerhet, som först presenterades av Kennedy och O'Hagan (2001) och därefter antogs i praktiken i hela statistiklitteraturen. Vi diskuterar hur befintliga numeriska metoder för integrering av differentialekvationer ignorerar diskretiseringsosäkerhet när lösningen inte är tillgänglig i sluten form. Vi utvecklar sedan en allmän Bayesiansk ram för att modellera denna epistemiska osäkerhet i differentialekvationer, inspirerad av arbetet av Skilling (1991) och O'Hagan (1992). Vi börjar i Avsnitt 3 med att definiera funktionella priors på stater och derivat för allmänna vanliga och partiella differentialekvationer. Sedan, i Avsnitt 4, utvecklar vi en Bayesian strategi för att uppdatera våra tidigare övertygelser givna modellinformation som erhållits sekventiellt och självkonsekvent över en given diskretisering rutnät, vilket probabilistiskt karakteriserar den finita dimensionella representationen av en underliggande infinit dimensional lösning givet modellparametrar och initiala villkor. Vi visar att den resulterande bakre banan med sannolikhet konvergerar till den exakta lösningen enligt standardantaganden. Vi införlivar sedan denna metod i det omvända problemet i avsnitt 5 och ger exempel i avsnitt 6. Slutligen diskuterar vi vårt föreslagna tillvägagångssätt för kvantifiering av Bayesisk osäkerhet för differentialekvationsmodeller och lyfter fram öppna forskningsområden. Tillägget innehåller bevis och ytterligare matematiska och algoritmiska detaljer. Vikten av att formellt kvantifiera källor till osäkerhet i datorsimuleringar när matematiskt modellera komplexa naturfenomen, såsom väder, havsströmmar, istäcke och cellulär proteintransport, är allmänt erkänd. Dessa modellbaserade simuleringar informerar resonemangsprocessen 4 när man t.ex. bedömer den ekonomiska risken vid beslut om oljefältshålskonfigurationer eller utformar en statlig politik som svar på extrema väderhändelser. Det är därför av stor betydelse att man tar hänsyn till alla osäkerhetskällor och sprider dem på ett enhetligt sätt under hela inferens- och beslutsprocessen. Överväg data, y(t), observeras vid diskreta tidpunkter t = [t 1, t 2,. .., t T ] och en uppsättning modellparametrar Med hjälp av den exakta lösningen av en matematisk modell som representeras av u * (t, ska), en förenklad observationsmodell baserad på någon mätfelstruktur (t) är, I full allmänhet, en icke-linjär omvandling G u * (t, ) kan observeras, men för expositionell klarhet vi antar att detta är en identitet. I vår miljö, u * (t, ) är den unika funktionen som uppfyller ett allmänt system av differentialekvationer. När vi utför statistiska slutsatser över sådana modeller, är vi intresserade av den gemensamma bakre fördelningen över alla okända, eventuellt inklusive de initiala och gränsförhållanden. Genom hela papperet, kommer att utökas till att innehålla alla variabler av intresse. I Kennedys och O'Hagans banbrytande dokument (2001) identifierades ett antal osäkerhetskällor vid modellering av en naturlig eller fysisk process. Deras erkännande av osäkerhet på grund av ofullständig kunskap om processen och den motsvarande modellens otillräcklighet motiverar en probabilistisk syn på en missmatchning mellan modellerna δ(t) som också studerats i de senaste tidningarna av Brynjarsdóttir och O'Hagan (2014); Huttunen och Kaipio (2007); Kaipio och Solermo (2007); och Stuart (2010). I den tekniska litteraturen är denna form av fel också känd som valideringsfel (se t.ex. Oberkampf och Roy, 2010). Efter Kennedy och O'Hagan genom att definiera δ(t) som en slumpmässig funktion hämtad från en Gaussian Process (GP), blir observationsmodellen, På grund av bristen på en analytisk lösning för de flesta icke-linjära differentialekvationer, sannolikheten p y(t) u * (t, på), kan inte uppnås i sluten form. Denna fråga behandlas i hela statistiklitteraturen genom att man ersätter den exakta sannolikheten med en surrogatlösning, p y(t) på N (t, ) på grundval av en N-dimensionell ungefärlig lösning,û N (t, ) som erhållits med hjälp av numeriska integrationsmetoder (t.ex. en Runge-Kutta-lösare med N-tidsteg) vars noggrannhet har studerats väl (se t.ex. Henrici, 1964). Det finns dock fortfarande många scenarier för vilka standardmetoder för karakterisering av övre gränser för numeriska fel, och som därefter sprider denna osäkerhet under resten av den inferentiella processen är otillfredsställande. Begränsad beräkning och grov maskstorlek bidrar till det numeriska felet, som beskrivs i den omfattande översikten över Oberkampf och Roy (2010). Det till synes ofarliga antagandet av försumbara numeriska integrationsfel kan senare leda till allvarliga statistiska fördomar och vilseledande slutsatser för vissa klasser av differentialekvationsmodeller, och vi illustrerar detta i avsnitt 6.1 med ett enkelt exempel. Vi kan representera denna ytterligare osäkerhet genom att använda termen "T" = u Kennedy och O'Hagan (2001) föreslår modellering av datakoden med hjälp av en Gaussisk process som är agnostisk till den specifika formen av den underliggande matematiska modellen, som därför betraktas som en "svart låda". I diskussionen om deras papper hävdar H. Wynn att känslighetsekvationer och andra underliggande matematiska strukturer som styr datorsimuleringen också kan ingå i den övergripande osäkerhetsanalysen. I det aktuella dokumentet "öppnar vi den svarta lådan" genom att explicit modellera lösningen och tillhörande diskretiseringsosäkerhet,û N (t, på) +. Detta gör att Kennedy och O'Hagan ramverket kan berikas ytterligare genom att införliva detaljerad kunskap om den matematiska modell som används. Observerar att den bakre mätningen över datormodellen definieras oberoende av de observerade data tyder på en ytterligare konstruktion genom att probabilistiskt karakterisera osäkerheten på grund av systemtillstånd som implicit definieras av differentialekvationer. Detta leder till utvecklingen av ett helt probabilistiskt system för att lösa differentialekvationer och föreslår en kraftfull ny metod för modellering av osäkerhet i datormodeller. Vi modellerar osäkerhet i en ändlig dimensionell representation av den oändliga dimensionslösningen genom en sannolikhetsangivelse på ett utrymme av lämpligt smidiga funktioner. Begränsa oss till Hilbert utrymmen för 5 modellera vår kunskap om u * (t, på), definierar vi en Gaussian föregående åtgärd på funktionsutrymmet (Stuart, 2010). Vi modellerar sedan direkt vår kunskap om lösningen via den stokastiska processen u(t, ) och ersätter därmed (6) med y(t) = u(t, ska) + δ(t) + (t). Bidraget i detta dokument är i vår definition och användning av u(t, ), därför för expositionell klarhet vi fokuserar vår uppmärksamhet på den gemensamma bakre mått över differentialekvation modell tillstånd, parametrar, och tillhörande hjälpparametrar, på vår probabilistiska modell av osäkerhet, Vår Bayesian probabilistic integration ram för differentialekvation modeller utforskar fullt ut utrymmet för banor som ungefär uppfyller modelldynamik under teoretiska garantier för konsekvens. Den ram som presenteras i detta dokument demonstreras på modeller som beskrivs med hjälp av ickelinjära vanliga, fördröjningar, blandade gränsvärden och partiella differentialekvationer, och vi tar uttryckligen upp multiplicitet av lösningar i avsnitt 6.2. För notationell enkelhet vi nedan utelämnar beroendet av u på.... När man överväger osäkerhet i den oändliga dimensionella lösningen av differentialekvationer, är det naturliga måttet för utrymmen i en bred klass av funktioner Gaussian (Stuart, 2010). Som sådan definierar vi en Gaussian process (GP) föregående åtgärd gemensamt på staten u och dess tidsderivat u t. Vi kommer nu att diskutera den tidigare konstruktionen för vanliga differentialekvationer, och sedan överväga fallet för partiella differentialekvationer. I resten av tidningen kommer vi att beteckna med R λ en deterministisk, fyrkantig integrerbar kärna funktion med längdskala λ och (0, ∞), och dess integrerade version av Q λ (t 1, t 2 ) = t1 a R λ (s, t 2 )ds. Här representerar a den nedre gränsen för vår tidsdomän. Vår modell för derivatet har covarians operator cov(, där α är en föregående precision parameter. Därför covariance på staten är dess integrerade version, cov(u(t 1 ), u(t 2 ) = α Korset covariance termer definieras på ett liknande sätt och betecknas som RQ(t 1, t 2 ) och QR(t 1, t 2 ) respektive. Vi noterar att RQ(t 1, t 2 ) = QR † (t 1, t 2 ), där † representerar angränsande. Vi antar en gemensam Gaussian föregående åtgärd på staten och dess derivat, Den Gaussiska villkorade tidigare åtgärder för t.ex.. p (u t (t)) u(t)) anta standardformulär (Stuart, 2010). I tillägget (avsnitt 8.2) diskuteras valet av tidigare medel och kovariansstruktur samt inverkan och valet av hjälpparametrar, på = [α, λ]. För exposition, vi tar hjälpparametrarna med fasta, även om vi noterar att propagera en distribution över med hjälp av den probabilistiska lösaren är enkel, och uppskattningen av och tas upp i avsnitt 6.4. Denna modell generaliserar enkelt till ODE problem av ordning större än en, genom att definiera den föregående gemensamt på stat, u, och alla nödvändiga derivat. Alternativt kan ODE-problem i högre ordning upprepas i den första ordningen genom att införa ytterligare stater. Vi har funnit att addition av tillstånd till modellen är beräkningsmässigt okomplicerat, så vi antar detta tillvägagångssätt i praktiken, arbetar med föregående i ekvation (8). PDE-problem kräver en föregående åtgärd över multivariata banor, samt modellering av enskilda eller högre orderderivat med avseende på rumsliga ingångar. Därför kommer den tidigare specifikationen att vara beroende av PDE-modellen. Betrakta som ett belysande exempel den paraboliska värmeekvationen, modellera värmespridningen över tiden längs en enda rumslig dimension av, 6 Ett modellering val för att införliva den rumsliga komponenten av PDE i covariansen är att anta en produktstruktur. Kovariansen över tiden definieras enligt ovan, och över rymden kan definieras med hjälp av en liknande konstruktion. Låt R μ vara en kärna funktion med längd skala μ. Q μ (z, x 2 )dz, där c betecknar en rumslig lägre gräns (i (9), detta är c = 0). De rumsliga kovariansstrukturerna definieras på liknande sätt som den timliga formen i ODE-exemplet som, där β är en rumslig föregående precisionsparameter. Kors covariances definieras analogt. Den tidigare konstruktionen följer genom att definiera en produktstruktur för rum och tid, I nästa avsnitt beskriver vi i detalj ramen för att sekventiellt koppla föregående i ekvation (8) med ODE-modellen. Vi beskriver motsvarande algoritm för uppdatering av föregående i ekvation (10) under värmeekvationen PDE i tillägget (avsnitt 8.1). Vi ger exempel som illustrerar dess användning experimentellt i Avsnitt 6. Den gemensamma föregående på staten och dess derivat definieras i ekvation (8) i termer av medelfunktioner m, m t och en kovariansstruktur som bestäms av valet av kärnfunktion R λ, som parameteriseras av hjälpvariablerna α och λ. Valet av kovarianskärnan bör återspegla våra antaganden om den exakta men okända differentialekvationslösningens smidighet. I tillägget (avsnitt 8.3) tillhandahåller vi covariansstrukturer baserade på två kärnor: den oändligt olika kvadratexponentiella och den icke-differentierbara enhetliga kärnan. Gaussiska processmodeller matchar vanligtvis kärnan för ett givet program till tidigare information om smidigheten i den underliggande funktionen (se t.ex. Rasmussen och Williams, 2006). Det är också viktigt att vara medveten om att införandet av orealistiskt strikta mjukhetsantaganden på statsrymden genom val av kovariansstruktur kan medföra en bedömningsfördel om den exakta lösningen inte är minst lika smidig. Därför, i fall där lösningen jämnhet inte är känd a priori, kan man fela på sidan av försiktighet genom att använda mindre vanliga kärnor. I de exempel som rapporteras i detta papper valde vi att arbeta med stationära derivata covariance strukturer för enkelhet, men vi påpekar att det kommer att finnas klasser av problem där icke-stationära kärnor kan vara lämpligare och kan också införlivas i den Gaussiska processramen. Medelfunktionen väljs utifrån alla förkunskaper om hur systemet utvecklas över tiden. Vanligtvis är dock sådan tidigare detaljerad kunskap inte tillgänglig, i vilket fall det är rimligt att använda en konstant medelfunktion. Dessutom, vi villkorar på de kända gränsvärdena, genomdriva dem genom att välja det föregående medelvärdet. Till exempel, för IVPs, vi uppfyller gränsen begränsningen exakt genom att välja en differentiable föregående genomsnittlig funktion m sådan att m(a) := u * (a). Nu när formen för den tidigare åtgärden har definierats, erhålls motsvarande bakre del i följande två avsnitt på ett sekventiellt sätt. Denna iterativa uppdatering följer noga den sekventiella strukturen för det bevis på överensstämmelse som anges i tillägget (avsnitt 8.6). Här påpekar vi att även om mängden och kvaliteten på tidigare information om den sanna lösningen kommer att påverka effektiviteten hos våra probabilistiska lösare, kan vi fortfarande förvänta oss konvergens eftersom tidssteget tenderar till noll, med förbehåll för vissa standardantaganden om kärnans funktion. Dessutom illustrerar vi i avsnitt 6.1 omfattningen av tidigare påverkan på den probabilistiska lösningen för värmeekvationen PDE. Vi anser att användningen av ett nollmedelvärde före på de rumsliga och temporal derivata har minimal inverkan på lösningen, även för någorlunda grov diskretisering rutnät. Vi inför nu en sekventiell ram för att karakterisera den epistemiska modellosäkerhetskomponenten i ekvation (7). Vi begränsar vår uppmärksamhet till ODE:s initialvärde (1) och överväger mer allmänna ODE- och PDE-problem i avsnitt 6. Vi modellerar diskretisering osäkerhet genom att uppdatera den gemensamma före på det okända tillståndet och derivatera iterativt, genom att utvärdera den deterministiska ODE-modellen vid ett ändligt antal N rutnät punkter över den temporal domänen, som vi betecknar med f 1:N. Algoritm 1 producerar ett prov från den gemensamma fördelningen, [ u, Låt oss överväga problemet med modellering osäkerhet i den exakta men okända lösningen av en icke-linjär ODE initialt värde problem. Vi ges differentialekvationsmodellen, u t (t) = f (t, u(t), som implicit definierar derivata i termer av en Lipschitz kontinuerlig funktion f av de stater som anges och ett fast initialvärde, u * (a). Vi modellerar vår osäkerhet om den unika explicita tillstånd, u, och dess derivat, u t, uppfyller det initiala värdeproblemet, via den gemensamma GP föregående åtgärd i ekvation (8). Följande förfarande länkar sekvensvis föregående på staten med ODE-modellen definieras av f. Överväga en diskretisering rutnät bestående av N tidspunkter Vi börjar med att fastställa det kända ursprungliga värdet, u(s 1 ) := u * (a) och beräkna den exakta derivatan f 1 := f (s 1, u(s 1 ), på s 1, via den deterministiska ODE-modellen. Vi uppdaterar sedan vår gemensamma GP tidigare med tanke på den beräknade exakta derivata f 1, erhålla villkorlig prediktiv distribution för staten på den efterföljande rutnätet plats s 2, med, Denna prediktiva distribution beskriver vår nuvarande osäkerhet om lösningen vid tidpunkten s 2. Vi nu ta prov på ett förverkligande, u(s 2 ), av den prediktiva processen, och återigen länka vår före den deterministiska ODE-modellen genom att computing f 2 := f (s 2, u(s 2 ). I motsats till den första gången punkt s 1, Vi kan inte längre garantera att genomförandet vid den andra tidpunkten, u(s 2 ), och dess derivat, u t (s 2 ), exakt uppfyller ODE-modellen, dvs.. att u t (s 2 ) = f 2. Därför, vid tidpunkten s 2 vi modellerar uttryckligen missmatchningen mellan ODE utvärdering f 2 och processderivatet, u t (s 2 ), som, där omfattningen av missmatchningen kan beskrivas av variansen, C t (s 2, s 2 ), av den prediktiva bakre över derivatan ges av, För system där vi anser att denna missmatchning är starkt icke-gaussian, kan vi på lämpligt sätt ändra ovanstående modell och tillhörande provtagningsstrategi, som beskrivs i diskussionsavsnittet. Vi kan nu uppdatera vår gemensamma bakre från föregående iteration genom att konditionera på den utökade vektorn f 1:2 := [f 1, f (s 2, u(s 2 )]. Vi definierar därför matrisen ι 2×2 := diag{0, C t (s 2, s 2 )} för att beskriva missmatchningen mellan processderivatet och ODE-funktionen utvärderingar på s 1 och s 2. Den nya prediktiva bakre, Precis som i de föregående två stegen, vi prov på tillståndet förverkliga u (s 3 ) från ovanstående prediktiva bakre fördelning. Vi tillämpar sedan den deterministiska omvandlingen f, för att erhålla f 3 := f (s 3, u(s 3 ), på vars missmatchning med det realiserade derivatet u t (s 3 ) åter modelleras som, Vi nästa förstärka f 1:3 := [f 1:2, f 3 ]. Motsvarande missmatchning matrisen har därför en diagonal struktur, ρ 3×3 := diag{ρ 2×2, C t (s 3, s 3 )}, där steg-förutsedd kovarians i derivatutrymmet är, De diagonala elementen i ρ, som är steg-förutsebara derivat varianser, är icke-decreasing, återspeglar vår växande osäkerhet om hur väl det realiserade tillståndet lyder ODE-modellen som vi tar vårt prov längre och längre bort från det kända ursprungliga tillståndet. Det visas också i tillägget (avsnitt 8.7) att dess beståndsdelar tenderar att nollställas med stegstorleken men i mycket snabbare takt än stegstorleken. Det allmänna systemet kan skrivas enligt algoritm 1, och en illustration av detta ges i figur 1. Algoritm 1 Prov från den gemensamma bakre distributionen av u och f 1:N för ett initialt ODE-värdesproblem givet..,., N Vid tidpunkten s 1 := a, initiera derivatet f 1 := f 1, u(s 1 ),... för initialtillstånd u(s 1 ) := u * (a) och definiera tillhörande modeller-derivativ missmatchning := 1×1 := 0; för n = 1 : N − 1 Definiera det prediktiva tillståndet medelvärde och varians, Prov steg-ahead realisering u(s n+1 ) från den prediktiva fördelningen av tillståndet, utvärdera ODE-modellen f n+1 := f (s n+1, u(s n+1 ),...) för realisering u(s n+1 ) vid efterföljande rutnät punkt, s n+1, och förstärka vektorn f 1:n+1 := [f 1:n +1 ]; Definiera den prediktiva derivatvariansen, och öka matrisen Vi betonar att integreringen av ODE-modellen fortsätter probiliserande via Gaus integration. Vi får en bakre fördelning över banor 9 Figur 1 : Illustration av Algoritm 1 för att generera ett prov från den gemensamma fördelningen av derivat observationer och möjliga banor med densitet p u(t), f 1:N. Med tanke på två derivatmodellers realiserande (röda punkter) får vi en bakre fördelning över derivatutrymmet (överst till vänster) och över tillståndsutrymmet (nedre mitten). Ett prov dras sedan från den prediktiva bakre delen över staterna vid nästa tidpunkt s n (nedre mitten), och en modell realiseras genom att kartlägga u (s n ) till derivatutrymmet via funktionen f (topp mitt, högra röd punkt). Med tanke på dessa tre modellutvärderingar kan detta förfarande upprepas (nederst till höger, överst till höger) på ett liknande sätt. 10 u som styrs av differentialekvationsmodellen över ett diskret antal rutnätspunkter. I tillägget (avsnitt 8.6) ger vi ett bevis på att den bakre process u(t) som erhålls via Algoritm 1 under vissa förhållanden tenderar att vara den unika lösning u * (t) som uppfyller IVP (1), enligt följande, där h är den maximala längden mellan på varandra följande diskretiseringspunkter. Vi presenterar nu en ram för att sprida modellens diskretiseringsosäkerhet som karakteriseras i avsnitt 4 genom det omvända problemet, där vi vill dra slutsatser om modellparametrar från mätdata. Vi beskriver en möjlig Markov kedja Monte Carlo förfarande som genererar ett prov från den gemensamma bakre fördelningen av tillståndet på dataplatserna t = [t 1, · · · ·, t T ] och de okända parametrarna på villkor att bullriga observationer y(t) = G u(t), + (t) av staterna. Vi antar att parametrarna och inkluderar alla okända initiala villkor, eller hjälpparametrar. För enkelhetens skull fokuserar vi återigen på direkta observationer av stater som styrs av ett initialt värdeproblem. Utvidgningen till andra ODE- och PDE-problem är dock okomplicerad med en probabilistisk lösning. Vi tillhandahåller en applikation där stater indirekt observeras genom den icke-linjära omvandlingen av stater G i avsnitt 6.4. Algoritm 2 mål den bakre densiteten i ekvation (7) genom framåt modellförslag via villkorlig simulering från Algoritm 1. Genom detta steg i förslaget undviker man behovet av att uttryckligen beräkna den indragbara marginaltätheten p u(t), f 1:N på ett sådant sätt att den kan genomföras på ett effektivt sätt som beskrivs i bilagan (avsnitt 8.1). Sådana delvis sannolikhetsfria MCMC-implementationer (Marjoram et al., 2003) används i stor utsträckning inom området inferens för stokastiska differentialekvationer (se exempelvis Golightly och Wilkinson, 2011) för att simulera provvägar inom det omvända problemet. Algoritm 2 Rita K-prover från den bakre fördelningen med densitet p för, u(t) y(t), på ett villkorligt prov en realiserande av tillståndet u(t) via Algoritm 1; för k = 1 : K gör Föreslå en på förslagstäthet, där q är en förslagstäthet; Prov ett probabilistiskt förverkligande av tillståndet u (t) betingat på ska via Algoritm 1; Compute: Vi har nu alla komponenter att ta en helt Bayesian metod för att kvantifiera osäkerhet på differentialekvation modeller av naturliga och fysiska system. I det här avsnittet använder vi det ramverk som utvecklats i de två föregående avsnitten i tillämpningar till ett brett spektrum av system, inklusive problem med ODE- och PDE-gränsvärde och fördröjda initiala funktionsproblem. 11 Som ett belysande exempel visar vi användningen av vår probabilistiska ram för värmeekvationen som presenteras i (9). Vi modellerar vår osäkerhet om lösningen genom den tidigare (10) definierade över tid och rum med hjälp av en produkts kovariansstruktur som beskrivs i avsnitt 3. Vi använder vårt probabilistiska ramverk för att integrera tillståndet över tiden vid var och en av de rumsliga diskretiseringsgridpunkterna, med användning av en enhetlig kovarianskärna för tidskomponenten och en kvadratexponentiell kovarianskärna för den rumsliga komponenten. Vi karakteriserar därför diskretiseringsosäkerheten i både tid och rumsliga domäner genom konditionering av PDE-modellutvärderingar som motsvarar ungefärliga tidsderivat vid varje diskretiseringsgridplats, beroende på sekventiellt urval av realiserande från den prediktiva bakre fördelningen över den andra ordningens rumsliga derivat. Vi beskriver den fullständiga algoritmiska konstruktionen i tillägget (Algoritm 3). I följande numeriska simuleringar tar vi hänsyn till dynamiken med σ = 1 och initial funktion u * (x, 0) = sin (xπ), x till [0, 1]. Vi betraktar först det probabilistiska framtidsproblemet med hjälp av en mängd olika diskretiseringsgaller. I figur 2 jämför vi den exakta lösningen med den probabilistiska lösningen på två olika rutnät; en grov diskretisering av 15 punkter i den rumsliga domänen och 50 punkter i den tidsmässiga domänen, och en finare diskretisering av 29 punkter i den rumsliga domänen och 100 punkter i den tidsmässiga domänen. Vi observerar från simuleringarna att i takt med att maskstorleken blir finare minskar osäkerheten i lösningen, i överensstämmelse med konsekvensresultatet (bilaga 8.6), där det visas att den probabilistiska lösningen bör tendera till den exakta lösningen eftersom gridavståndet tenderar att vara noll. Även om detta är ett belysande exempel med hjälp av ett enkelt leksakssystem, är karakteriseringen av rumslig osäkerhet avgörande för mer komplexa modeller, där det finns beräkningsbegränsningar som begränsar antalet systemutvärderingar som kan utföras. Vi kan se effekten av sådan diskretiseringsosäkerhet genom att utföra bakre inferens för parametern σ given data simulerad från en exakt lösning med σ = 1. Figur 3 visar den bakre fördelningen jämfört med den som erhålls genom att använda både en "framåt i tiden, centrerad i rymden" (FTCS) ändlig skillnadslösare och en probabilistisk lösare under en mängd olika diskretiseringsgaller. Användningen av en deterministisk lösare illustrerar problemet med inferential bias och överkonfident bakre varians som kan uppstå om diskretisering osäkerhet inte beaktas och alltför grov ett rutnät används. I denna illustrativa miljö förökar användningen av en probabilistisk lösning osäkerheten om diskretisering i lösningen fram till den bakre fördelningen över parametrarna. Vi får parameteruppskattningar som tilldelar positiv sannolikhetsmassa till det sanna värdet av δ, även när man använder ett grovt diskretiserat rutnät, undvika problemet med överkonfident parameterslutsatser som utesluter det verkliga värdet. MBVP introducerar utmaningar för många befintliga numeriska lösare, som vanligtvis förlitar sig på optimering och teorin om IVP för att uppskatta det ospecificerade initialtillståndet, u(a) i (2). Optimering över u(a) utförs tills motsvarande IVP-lösning uppfyller det angivna gränstillståndet u * (b) inom en användarspecifik tolerans. För expositionell enkelhet, anser vi ett gränsvärde problem med en begränsning belägen vid varje gräns för domänen, nämligen v(a), u(b) = v * (a), u * (b). Vi behandlar gränsvärdet u * (b) som en datapunkt och betraktar lösningen som ett inferensproblem över det ospecificerade initialvärdet u(a). Sannolikheten definierar därför missmatchningen mellan gränsvärdet u(b), som erhålls från den realiserade probabilistiska lösningen med en del u(a), med det exakta gränsvärdet u * (b), enligt följande, där m (u) (b) och C (u) (b) b) är det bakre medelvärdet och kovariansen för tillstånd u vid tidpunkten b erhålls från utvärderingen av Algoritm 1. Den bakre fördelningen av staterna har därför densitet, som uppvisar multimodalitet över staterna, som visas på vänster sida av figur 4. Medan deterministiska numeriska lösare förlitar sig på en tolerans för ad hoc-slutpunkters missmatchning, är den probabilistiska ramen naturligt figur 2: Vi illustrerar den probabilistiska produktionen av lösningen till värmeekvationen PDE, med σ = 1, integrerad mellan t = 0 och t = 0,25 med hjälp av två rutnätsstorlekar; den grövre maskan (visas i blått) består av 15 rumsliga diskretiseringspunkter och 50 tids diskretiseringspunkter, den finare maskan består av 29 rumsliga diskretiseringspunkter och 100 tids diskretiseringspunkter. Vi visar de rumsliga bakre förutsägelserna vid tre tidpunkter; t = 0,02 (överst), t = 0,12 (mellan) och t = 0,22 (underst). Den exakta lösningen vid varje tidpunkt representeras av den gröna linjen. Felstängerna visar medelvärden och 2 standardavvikelser för var och en av de probabilistiska lösningarna beräknade med hjälp av 50 simuleringar. Figur 3: Vi illustrerar det omvända problemet genom att dra slutsatser om parametern σ i värmeekvationen, integrerad mellan t = 0 och t = 0,25. Vi genererar data över ett rutnät med 8 rumsliga diskretiseringspunkter och 25 diskretiseringspunkter genom att använda den exakta lösningen med σ = 1, och sedan addera buller med standardavvikelsen 0,005. Vi använder först den probabilistiska differentialekvationslösaren (PODES) med tre rutnätsstorlekar; en grov maska bestående av 8 rumsliga diskretiseringspunkter och 25 diskretiseringspunkter (långt till vänster), en finare maska bestående av 15 rumsliga diskretiseringspunkter och 50 diskretiseringspunkter (andra från vänster) och ytterligare en finare maska bestående av 29 rumsliga diskretiseringspunkter och 100 diskretiseringspunkter (andra från höger). Observera förändringen i skala när den bakre variansen minskar med ökande upplösning av diskretiseringen. Som en belysande jämförelse visar vi de bakre distributionerna med hjälp av en deterministisk framåt i tiden, centrerad i rymden (FTCS) integrationssystem (långt till höger). Om diskretiseringen inte är tillräckligt bra, får vi en överkonfidentiell fördomsfull bakdel som tilldelar försumbar sannolikhetsmassa till det verkliga värdet av δ. Däremot ger användningen av den exakta lösningen, som förväntat, en fullständigt objektiv baksida. Figur 4: 3000 prov togs från den bakre sannolikhetstätheten (13) och banorna visas för båda tillstånden (vänster, över och under). Den marginella bakre sannolikhetstätheten över det okända initiala tillståndet u( 1 2 ) visas också (höger). definierar denna tolerans genom en prediktiv fördelning av (12). En viktig faktor för att lösa MBVPs probabilistically är att prov effektivt från potentiellt multimodala posteriors över det initiala värdet. Vi rekommenderar därför användning av en lämplig MCMC-system som parallell härdning (Geyer, 1991), som snabbt kan identifiera och utforska olika regioner med hög bakre sannolikhet. Vi tillhandahåller ett sådant genomförande av parallell härdning i tillägget (Algoritm 5). Som en demonstration av probabilistiskt lösa ett blandat gränsvärde problem, anser vi ett specialfall Lane-Emden modellen, som används för att beskriva densitet u av gasformiga sfäriska objekt, såsom stjärnor, som en funktion av dess radie t, (Shampine, 2003). Vi skriver om den kanoniska andra ordningen ODE som ett system av en första ordningen ekvationer med ett blandat gränsvärde, med gränsförhållanden, u * (1) = ε 3/2 och v * ( 1 2 ) = −288/2197. Det okända initialtillståndet u * ( 1 2 ) tilldelas en diffus Gaussian tidigare med medelvärde 1,5 och standardavvikelse 2 u * (1) - v * ( 1 2 ), vilket återspeglar möjligheten att flera lösningar kan finnas i ett brett spektrum av initialtillstånd. I detta exempel valde vi den fyrkantiga exponentiella kovariansen för att modellera vad vi förväntar oss att vara en mycket smidig lösning. Diskretiseringsnätet består av 100 jämnt fördelade punkter. Längdskalan är inställd på två gånger stegstorleken för diskretiseringsgaller och den tidigare precisionen är inställd på 1. Figur 4 visar ett bakre prov från ekvation 13 och identifierar två regioner med hög densitet i det bakre som motsvarar distinkta banor som ungefär uppfyller modelldynamiken med tanke på vårt diskretiseringsgaller. Figur 4 visar också multimodalitet genom den marginella bakre över det okända initialtillståndet u( 1 2 ). Detta exempel illustrerar behovet av att korrekt modellera lösningsosäkerheten på ett funktionellt sätt. En numerisk approximation, även med motsvarande numeriska felgränser, kommer inte att upptäcka förekomsten av en andra lösning, medan en probabilistisk strategi gör det möjligt för oss att bestämma antal och plats för möjliga lösningar. I detta fall är en probabilistisk metod för att lösa problemet med differentialekvation inriktad på modellfördomar som orsakas av många olika lösningar. 14 Vi presenterar följande exempel som ett bevis på konceptet att den probabilistiska lösaren kan tillämpas tillförlitligt och enkelt på ett mycket högdimensionellt dynamiskt system. Systemet Navier-Stokes är en grundläggande modell av flytande dynamik, som införlivar lagar om bevarande av massa, energi och linjärt momentum, samt fysiska egenskaper hos en okomprimerbar vätska över vissa domäner givna begränsningar som påtvingas längs gränserna. Det är en viktig komponent i komplexa modeller inom oceanografi, väder, luftföroreningar och glaciärrörelser. Trots dess omfattande användning, dynamiken i Navier-Stokes modeller är dåligt förstådd även på små tidsskalor, där de kan ge upphov till turbulens. Vi anser Navier-Stokes PDE-modellen för tidsutveckling av 2 komponenter av hastigheten, u : D → R 2, av en okomprimerbar vätska på en torus, D := [0, 2π, ) × [0, 2π], uttryckt i sfäriska koordinater. Gränsvärdesproblemet Navier-Stokes definieras av: där på: = är den Laplacian operatören sådan att u = u x2x2, och är lutningsoperatören sådan att u = u x1 + u (15) inte är känd i sluten form. Ofta är mängden av intresse den lokala spinning rörelse av den okomprimerbara vätska, som kallas vorticitet, som vi definierar som, = − till × u, där till × u representerar rotationscurl definieras som korsprodukt av på och u, med positiv vorticitet motsvarande medurs rotation. Denna variabel kommer att användas för att bättre visualisera den probabilistiska lösningen av Navier-Stokes systemet genom att reducera de två komponenterna av hastigheten till en dimensionell funktion. Vi diskretiserar Navier-Stokes-modellen (15) över ett rutnät av storlek 128 i varje rumslig dimension. Därför, en pseudo spektral projektion i Fourier utrymme ger 16,384 kopplade, stela ODS med tillhörande begränsningar. Fullständiga uppgifter om pseudospektral projektion ges för att möjliggöra fullständig replikering av dessa resultat och finns på den åtföljande webbplatsen. Figur 6.3 visar fyra framåt simulerade vorticitetsbanor (långa rader), som erhålls från två hastighetskomponenter som styrs av Navier-Stokes ekvationer (15) vid fyra olika tidpunkter (långa kolumner). Lätta skillnader i tillståndsdynamiken kan ses vid den sista tidpunkten, där de fyra banorna tydligt avviker från varandra. Dessa skillnader uttrycker den epistemiska osäkerhet som uppstår till följd av diskretisering av den exakta men okända oändligt dimensionella lösningen. Det probabilistiska tillvägagångssättet för framåtsimulering av DIFP beskrivs i Algoritm 6 i tillägget. Förutom att modellera diskretisering osäkerhet på ett strukturerat, funktionellt sätt, vårt ramverk gör det möjligt för oss att enkelt införliva osäkerhet i den ursprungliga funktionen genom framåt simulering; faktiskt, den ursprungliga funktionen kan det sig själv endast vara tillgänglig vid ett begränsat antal noder. Det probabilistiska tillvägagångssättet kvantifierar den osäkerhet som är förenad med uppskattningen av (t) och sprider den rekursivt genom staterna. Även när och t är helt specificerade i förväg påverkar det nuvarande tillståndets beroende av tidigare beräknade tillstånd noggrannheten hos den numeriska lösningen med hjälp av standardlösare, även på kort sikt. I följande exempel redogör vi för osäkerheten i samband med aktuella och försenade uppskattningar av systemtillstånd, och tar helt itu med dessa potentiella biaskällor i uppskattningen av modellparametrar. 16 deras ursprungliga tillstånd, återvänder till cytoplasman för att användas i nästa aktiveringscykel. Detta sista steg är inte väl förstådd och är proxied i modellen av den okända tidsfördröjningen τ. Modellen för denna mekanism beskriver förändringar i 4 reaktionstillstånd hos STAT-5 genom den ickelinjära DIFP, De initiala funktionskomponenterna och (2) (t) = och (3) (t) =. (4) (t) är överallt noll, medan den konstanta initialfunktionen och (1) (t) är okänd. Tillstånden för detta system kan inte mätas direkt, men observeras genom en icke-linjär omvandling, och parameteriseras av de okända skalningsfaktorerna k 5 och k 6. De indirekta mätningarna av staterna antas vara förorenade med additivt noll-medelvärde Gaussian buller, ε(t), med experimentellt fastställda standardavvikelser, Vår analys är baserad på experimentella data som uppmätts på platserna, t, från Swameye et al. (2003), som består av 16 mätningar för de två första tillstånden i observationsprocessen. Raue m.fl. (2009) Utnyttja ytterligare en artificiell datapunkt för var och en av de tredje och fjärde observationsprocesserna för att hantera bristen på parameteridentifierbarhet för detta system. Därför antar vi detta antagande i vår analys. Drivfunktionen, EpoR A : [0, 60] → R +, är inte känd, men mätt vid 16 diskreta tidpunkter t EP O. Enligt Raue et al. (2009), Vi antar att observationer mäts utan fel. Vi utgår vidare från att denna funktion har samma smidighet som lösningstillståndet (delvis linjärt förstaderivat). Den fullständiga villkorliga fördelningen av forceringfunktionen ges av en GP interpolation av observationer. Forward inference för denna modell kommer att användas inom det statistiska inversa problemet med att återvinna okända parametrar och första starttillstånd, på = [k 1,. .., k 6, τ, u (1) (0)] från experimentella data. Vi demonstrerar fullt probabilistic inference för stat banor och parametrar av den utmanande 4 tillstånd fördröjning initial funktionsmodell (16) som beskriver dynamiken i JAK-STAT cellulär signal transduction bana (Raue et al., 2009 ). Det har gjorts flera analyser av Jak-STAT väg mekanism baserat på dessa data (t.ex. Campbell och Chkrebtii, 2013; Raue et al., 2009; Schmidl et al., 2003; Swameye et al., 2003). Trots de olika modelleringsantaganden som olika författare har beaktat, liksom olika slutledningsmetoder, har några intressanta gemensamma drag identifierats som motiverar den explicita modelleringen av diskretiseringsosäkerhet för denna ansökan. För det första har de inkorrekta och beräkningsmässiga begränsningar av numeriska tekniker som krävs för att lösa systemekvationerna fått vissa författare att ta till grova ODE- approximationer eller till och med indirekt kringgå numeriska lösningar via Generalised Smoothing. Detta motiverar en formell analys av diskretiseringsfelets struktur och utbredning genom det omvända problemet. En annan fråga är att modellen (16) och dess varianter är missriktade. Ovanstående studier 17 tyder på att modellen inte är tillräckligt flexibel för att passa de tillgängliga uppgifterna, men det är inte klart hur mycket av detta fel som beror på modellavvikelser och hur mycket som kan tillskrivas diskretiseringsfel. Vår analys fortskrider genom att definiera tidigare fördelningar på de okända parametrarna enligt följande, Vi fick prover från den bakre fördelningen av modellparametrarna, och = [k 1,. .., k 6, τ, u (1) (0)], lösningstillstånd, u(t, på), och hjälpvariabler, på grund av data y(t) med MCMC. För att konstruera en Markov-kedja som effektivt färdas genom parameterutrymmet för denna multimodala bakre fördelning använde vi en parallell härdningsprovtagare (Geyer, 1991) med 10 parallella kedjor längs en jämnt fördelade temperaturprofil över intervallet [0,5, 1]. Varje probabilistisk DIFP-simulering genererades med hjälp av algoritm 6 under ett lika stort rutnät för diskretisering av storlek N = 500. Fullständiga algoritmiska detaljer finns i tillägget (Algoritm 8). Vi fick två grupper av bakre prover, var och en av storlek 50 000. Inom kedjan bedömdes konvergensen genom att man testade lika metoder mellan olika iterationsintervaller i kedjan (Geweke 1992). Mellan kedjekonvergensen bedömdes på liknande sätt. Dessutom såg vi till att acceptfrekvensen föll ungefär inom det accepterade intervallet på 18-28 % för var och en av de två parameterblocken, och att den totala acceptfrekvensen för förflyttningar mellan två kedjor låg kvar på ungefär 5–15 %. Korrelationsytor och beräkningar av kärnans densitet med föregående för marginalparameterns bakre del visas i figur 6. Alla parametrar utom den tidigare precisionen α identifieras med hjälp av data, inklusive hastighetsparametern k 2 som endast tycks vara svagt identifierad. Vi observerar starka korrelationer mellan parametrar, i enlighet med tidigare studier på detta system. Till exempel finns det en stark korrelation mellan skalningsparametrarna k 5, k 6 och det första tillståndet u (1) (0). Intressant nog verkar det finnas ett samband mellan den probabilistiska lösarens längdskala λ och den första, tredje och fjärde reaktionsfrekvensen. Dessutom har denna korrelation en icke-linjär struktur, där den högsta parameterdensitetsregionen tycks förändras med längdskala som innebär stark känslighet för lösningsspecifikationerna. Längdskalan är den probabilistiska analogen, under en begränsad kovarians, av stegnumret i en numerisk metod. Men i analyser baserade på numerisk integration, valet av en numerisk teknik effektivt fixerar denna parameter till ett godtyckligt värde som väljs a priori. Vårt resultat här tyder på att för detta problem är de infererade parametervärdena starkt och icke-linjärt beroende av valet av den numeriska metod som används. Vi spekulerar om att denna effekt kan bli ganska allvarlig för mer känsliga system, så att ignorera diskretisering osäkerhet inom det omvända problemet kan leda till inferentiella fördomar. Ett prov från den marginella bakre delen av statsbanorna och motsvarande observationsprocess visas i figur 7. Felraderna på datapunkterna visar två standardavvikelser för mätfelet från Swameye et al. (2003).................................................................. Det står omedelbart klart att vår modell, som innehåller diskretiseringsosäkerhet i det framtida problemet, fortfarande inte helt fångar dynamiken i de observerade uppgifterna. Denna systematiska brist på passform tyder på att det finns skillnader i modellen utöver den som beskrivs av diskretiseringsosäkerheten. Detta dokument har presenterat en probabilistisk formalism för att beskriva strukturen av ungefärlig lösningsosäkerhet för allmänna system av differentialekvationer. I stället för att tillhandahålla en enda uppsättning diskreta funktionsvärden som ungefär motsvarar de begränsningar som systemet med differentialekvationer medför ger vårt tillvägagångssätt en sannolikhetsmått över utrymmet för sådana oändliga dimensionella funktioner. Detta är en avvikelse : Marginal bakre fördelning av modellparametrarna med hjälp av probabilistisk framåt simulering baserad på ett prov av storlek 50 000, genereras med hjälp av en parallell härdning algoritm med tio kedjor. Sannolikheten för täthet visas i svart. 19 från den befintliga vedertagna praxisen att använda en deterministisk numerisk integrationskod för att erhålla en ungefärlig statistisk felmodell som en del av slutsatssprocessen. Detta gör det möjligt att anta sannolikhetskalkyler för att på ett enhetligt sätt sprida funktionell osäkerhet när man löser det statistiska inversa problemet. Vi har visat att vårt probabilistiska ramverk redan kan tillämpas på komplexa och högdimensionella system med hjälp av exemplet Navier-Stokes. Det krävs dock ytterligare arbete för att förbättra beräkningseffektiviteten till en punkt där den är jämförbar med befintliga genomföranden av numeriska integrationskoder. I princip, eftersom den probabilistiska integrationsmetoden vi har föreslagit bygger på lösningar av linjära system, delar den samma algoritmiska skalning som de flesta implicita numeriska integrationskoder (t.ex. Crank-Nicholson), och man räknar med att algoritmisk och kodutveckling med tiden kommer att säkerställa att vår metodik uppnår liknande prestandanivåer och blir en del av standardverktygslådan för klimatforskare, geoforskare och ingenjörer. Algoritmiska framsteg och kodutveckling kommer att vara ett spännande och givande område för pågående utredningar med stor genomslagskraft. Utökning av metoden till system som uppvisar riktningsderivat fel är omedelbar, till exempel i fluid dynamics applikationer. I avsnitt 4 har vi faktiskt modellerat missmatchningen mellan föregående på derivatan och ODE-modellen som Gaussian. Avslappning av detta antagande garanterar inte längre en sluten form representation av den uppdaterade tidigare på statsderivatet, men detta kan övervinnas genom ytterligare ett skikt av Monte Carlo provtagning inom Algoritm 1. Sådana frågor skulle dessutom motivera utvecklingen av effektiva MCMC-algoritmer i detta sammanhang. I detta arbete har vi direkt kunnat utnyttja den matematiska modellens struktur inom inferensprocessen på ett mer informerat sätt än genom att behandla det oåtkomliga systemet med differentialekvationer och tillhörande numerisk lösningskod som en "svart låda". Vi kan också utnyttja den inbyggda mångfaldiga struktur som induceras av den probabilistiska modellen senare för att öka effektiviteten i en mängd olika MCMC-metoder (Girolami och Calderhead, 2011). Som vi redan har noterat kan kontrollen av de hjälpparametrar som är förknippade med jämnhet i utrymmet för möjliga banor också ge flexibilitet till MCMC provtagningsmetoder. Detta inslag i vår probabilistiska metod gör det möjligt att definiera mellanliggande måltätheter för population MCMC-metoder såsom Smooth Functional Tempering (Campbell and Steele, 2011), vilket ökar effektiviteten när man utforskar de komplexa bakre densiteter som uppstår i tillämpningar som beskrivs av system med ickelinjära vanliga eller partiella differentialekvationer. Den föreslagna probabilistiska metoden tar formen av en linjär funktionell projektion, vilket gör det möjligt att direkt beräkna känsligheten i systemtillstånden med avseende på parametrar. Lokal känslighetsanalys kan vara användbar i tekniska tillämpningar, slutsatser, eller för att underlätta optimering. Detta skulle också göra det möjligt att till exempel införliva vår probabilistiska ram i en klassisk icke-linjär ram med minst kvadrater (Bates and Watts, 2007). Det probabilistiska tillvägagångssätt som vi förespråkar gör det i grund och botten möjligt att definiera en formell avvägning mellan osäkerhet som orsakas av numerisk noggrannhet och det omvända problemets storlek, genom val av diskretiseringsnät. Detta problem är av stort intresse för osäkerhet kvantifiering gemenskapen (se t.ex. Arridge et al., 2006; Kaipio et al., 2004). Vi kan nu kvantifiera och jämföra de enskilda bidragen till den övergripande osäkerheten från diskretisering, modellfelspecifikation och Monte Carlo-fel inom det probabilistiska ramverket. Vår probabilistiska modell av diskretiseringsosäkerhet kan användas för att styra meshförfining och till och med meshdesign för komplexa modeller, eftersom en prediktiv fördelning nu finns tillgänglig, vilket utgör grunden för experimentutformningsmetoder för meshutveckling. Numeriska lösningar av ODE och PDE för komplexa modeller är också beroende av adaptivt val av mesh. Den probabilistiska formalism som presenteras här kan nu informera mesh val på ett probabilistiskt sätt, genom att optimera ett valt konstruktionskriterium. Vissa arbeten i denna riktning har redan utförts i Chkrebtii (2013), där det naturliga Kullback-Leibler divergenskriteriet med framgång används för att adaptivt välja diskretiseringsnätet probabilistiskt. Ett sådant tillvägagångssätt föreslogs också av Skilling (1991) med hjälp av korsentropin. Slutsats och förutsägelse för datorexperiment (Sacks et al., 1989 ) bygger på numeriska lösningar av storskaliga systemmodeller. För närvarande är numerisk osäkerhet i modellen till stor del ignoreras, även om det informellt införlivas genom en covariance nugget i emulatorn (se, till exempel, Gramacy och Lee, 2012). Att anta en probabilistisk strategi i stor skala kommer att få praktiska konsekvenser på detta område genom att göra det möjligt att lätta på det felfria antagande som antas när man modellerar utdata från datorkoder, vilket leder till mer realistiska och flexibla emulatorer. Vid modellering av osäkerhet om en exakt men okänd lösning kan den probabilistiska integrationsformalismen anses ge både en uppskattning av den exakta lösningen och dess tillhörande funktionsfelanalys. Många befintliga numeriska metoder kan faktiskt tolkas inom ramen för denna allmänna probabilistiska ram. Detta tyder på möjligheten att både generalisera befintliga numeriska lösare och att utveckla nya provtagningssystem för att komplettera de probabilistiska lösningar som vi beskriver i detta bidrag. Kaotiska system uppstår i modellering av ett stort antal fysiska system, inklusive laserhålor, kemiska reaktioner, vätskerörelse, kristalltillväxt, väderprognoser och jordbävningsdynamik (Baker och Gollub, 1996, kapitel 7). Extrem känslighet för små störningar kännetecknar kaotisk dynamik, där effekten av diskretiseringsosäkerhet blir ett viktigt bidrag till global lösningsosäkerhet. Även om systemets långsiktiga beteende är förankrat i de ursprungliga tillstånden, resulterar förekomsten av numeriska diskretiseringsfel i exponentiella avvikelser från den exakta lösningen. Följaktligen sönderfaller information om initialtillstånd snabbt i takt med att systemlösningen utvecklas i tid. Denna insikt, demonstreras och förklaras av (Berliner, 1991), visas i följande exempel. Vi anser den klassiska Lorenz initialvärde problem (Lorenz, 1963), en bedrägligt enkel tre-state ODE modell av konvektiv vätskerörelse framkallad av en temperaturskillnad mellan en övre och nedre yta. Ett prov från detta systems probabilistiska bakre del visas i figur 8 givna modellparametrar i det kaotiska systemet och ett fast initialtillstånd. Det finns en kort tidsrymd inom vilken det finns försumbar osäkerhet i lösningen, men ackumuleringen av osäkerheten resulterar snabbt i divergerande, men ändå mycket strukturerade, lösningar eftersom flödet begränsas kring en kaotisk attraherare. Detta exempel belyser behovet av en funktionell modell av diskretiseringsosäkerhet för att ersätta numeriska punktvisa felgränser. Inom det omvända problemet gör ett probabilistiskt tillvägagångssätt också att vi kan kvantifiera förlusten av modellinformation när vi går bort från det ursprungliga tillståndet. Studien av kaotiska system är helt klart ett mycket viktigt forskningsområde, och man räknar med att det probabilistiska tillvägagångssätt som föreslås kan bidra till att påskynda framstegen. Vi återkommer nu till en viktig diskussion om den klass av problem för vilka probabilistisk integration är väl lämpad. Som vi har sett med slutledning för JAK-STAT-modellen, även relativt liten diskretisering osäkerhet kan förstärkas genom den icke-linjära framåt-modellen och kan införa skevhet i uppskattningen av parametrar som banan är mycket känslig för. Man kan dock anta att slutsatser om stabila system med låga dimensioner, utan topologiska begränsningar av lösningen, inte får ha några betydande diskretiseringseffekter. Fördelarna med vår formulering ligger dock utan tvekan vid forskningens spets när det gäller kvantifiering av osäkerhet, att hantera massiva ickelinjära modeller, att uppvisa komplex eller till och med kaotisk dynamik, och starka rumsliga-geometriska effekter (t.ex. modeller för undervattensflöde). Att lösa sådana system på ett ungefär är ett problem som fortfarande är i utkanten av aktuell forskning inom numerisk analys. Vi föreslår att ett probabilistiskt tillvägagångssätt skulle ge en viktig ytterligare uppsättning verktyg för att studera sådana system. Sammanfattningsvis hoppas vi att vår uppsats kommer att uppmuntra mycket mer forskning vid detta spännande gränssnitt mellan matematisk analys och statistisk metodik.
Ett liknande tillvägagångssätt tillämpas i REF, vilket ger en icke-parametrisk bakre snarare än en Gaussian approximation.
14,077,995
Bayesian Solution Uncertainty Quantification for Differential Equations
{'venue': None, 'journal': 'arXiv: Methodology', 'mag_field_of_study': ['Mathematics']}
17
Standard artificiella neurala nätverk lider av den välkända frågan om katastrofal glömska, vilket gör kontinuerlig eller livslångt lärande problematiskt. På senare tid har många metoder föreslagits för fortlöpande lärande, men på grund av skillnader i utvärderingsprotokoll är det svårt att direkt jämföra deras resultat. För att möjliggöra mer meningsfulla jämförelser identifierade vi tre distinkta scenarier för fortlöpande lärande baserat på om uppgiftsidentiteten är känd och, om den inte är det, om den behöver härledas. Utföra split och permuterade MNIST aktivitet protokoll enligt vart och ett av dessa scenarier, fann vi att regularization-baserade metoder (t.ex. elastisk vikt konsolidering) misslyckades när uppgift identiteten behövde härledas. Generativ replay kombinerat med destillation (dvs. med hjälp av sannolikheter i klassen som "mjuka mål") uppnådde däremot överlägsen prestanda i alla tre scenarierna. Dessutom minskade vi beräkningskostnaden för generativ replay genom att integrera den generativa modellen i huvudmodellen genom att utrusta den med generativa återkopplingsanslutningar. Denna Replay-through-Feedback metod avsevärt förkortad träningstid med ingen eller försumbar förlust i prestanda. Vi anser att detta är ett viktigt första steg mot att göra den kraftfulla tekniken för generativ replay skalbar till verkliga kontinuerligt lärande applikationer. * Alternativt
På senare tid har denna idé effektiviserats genom att den generativa modellen har integrerats i utbildningsproceduren REF.
52,880,246
Generative replay with feedback connections as a general strategy for continual learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
18
Produktionsmiljön för analysdatahanteringstillämpningar förändras snabbt. Många företag flyttar bort från att distribuera sina analytiska databaser på avancerade egenutvecklade maskiner, och går mot billigare, lägre-end, råvaruhårdvara, vanligtvis arrangerade i en delad MPP-arkitektur, ofta i en virtualiserad miljö inne i offentliga eller privata "moln". Samtidigt exploderar mängden data som behöver analyseras, vilket kräver att hundratals till tusentals maskiner arbetar parallellt för att utföra analysen. Det brukar finnas två skolor av tankar om vilken teknik att använda för dataanalys i en sådan miljö. Förespråkare för parallella databaser hävdar att den starka betoningen på prestanda och effektivitet av parallella databaser gör dem väl lämpade att utföra en sådan analys. Å andra sidan hävdar andra att MapReduce-baserade system är bättre lämpade på grund av deras överlägsna skalbarhet, feltolerans och flexibilitet att hantera ostrukturerade data. I detta dokument undersöker vi möjligheten att bygga ett hybridsystem som tar de bästa egenskaperna från båda teknikerna; prototypen vi byggde närmar sig parallella databaser i prestanda och effektivitet, men ändå ger skalbarhet, feltolerans och flexibilitet i MapReduce-baserade system.
HadoopDB REF föreslår ett hybridsystem som kombinerar en utbyggnad av Hadoop och ett parallellt databassystem för att samtidigt utnyttja MapReduces motståndskraft och skalbarhet tillsammans med prestanda och effektivitet i parallella databaser.
2,717,398
HadoopDB: An Architectural Hybrid of MapReduce and DBMS Technologies for Analytical Workloads
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
19
I detta dokument tar vi med oss tekniker från verksamhetsforskning för att ta itu med problemet med att välja optimala åtgärder inom delvis observerbara stokastiska domäner. Vi börjar med att introducera teorin om Markov beslutsprocesser (mdps) och delvis observerbara mdps (pomdps). Vi skisserar sedan en ny algoritm för att lösa pomdps o linje och visar hur, i vissa fall, en nite-minne controller kan extraheras från lösningen till en pomdp. Vi avslutar med en diskussion om komplexiteten i nding exakta lösningar för pomdps och om vissa möjligheter för nding approximativa lösningar. Tänk på problemet med en robot som navigerar i en stor byggnad. Roboten kan förflytta sig från korridorkorsning till korsning och kan göra lokala observationer av sin värld. Dess åtgärder är dock inte helt tillförlitliga. Ibland, när den har för avsikt att röra sig, stannar den där den är eller går för långt; ibland, när den har för avsikt att vända, går den över. Den har liknande problem med observation. Ibland ser en korridor ut som ett hörn; ibland ser en T-korsning ut som en L-korsning. Hur kan en sådan felsökt robot navigera, även med en karta över korridorerna? I allmänhet måste roboten komma ihåg något om sin historia av handlingar och observationer och använda denna information, tillsammans med sin kunskap om den underliggande dynamiken i världen (kartan och annan information), för att upprätthålla en uppskattning av dess läge. Många tekniska applikationer följer detta tillvägagångssätt, med hjälp av metoder som Kalman lter 10] för att upprätthålla en löpande uppskattning av robotens rumsliga osäkerhet, uttryckt som en ellipsoid eller normal distribution i Cartesian utrymme. Detta tillvägagångssätt duger dock inte för vår robot. Dess osäkerhet kan vara diskret: det kan vara nästan säker på att det är i nordöstra hörnet av antingen den fjärde eller den sjunde oors, även om det medger en chans att det är på ft oor, också. Sedan, med tanke på en osäker uppskattning av dess läge, roboten måste bestämma vilka åtgärder som ska vidtas. I vissa fall kan det vara tillräckligt att ignorera osäkerheten och vidta åtgärder som skulle vara lämpliga för den mest sannolika platsen. I andra fall kan det vara bättre för roboten att vidta åtgärder för att samla in information, till exempel söka efter ett landmärke eller läsa skyltar på väggen. I allmänhet kommer den att vidta åtgärder som uppfyller båda syftena samtidigt.
En delvis observerbar Markov-beslutsprocess (POMDP) REF definierar den optimala policyn för ett sekventiellt beslutsproblem samtidigt som osäkra statsövergångar och delvis observerbara stater beaktas.
5,613,003
Planning and Acting in Partially Observable Stochastic Domains
{'venue': 'Artif. Intell.', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
20
Privat informationshämtning (PIR) gör det möjligt för en användare att hämta ett dataobjekt från en databas, kopierat bland en eller flera servrar, samtidigt som identiteten på det återvunna objektet döljs. Detta problem föreslogs av Chor, Goldreich, Kushilevitz och Sudan 1995, och sedan dess föreslogs effektiva protokoll med sublinjär kommunikation. Men i alla dessa protokoll servrarnas beräkning för varje hämtning är åtminstone linjär i storleken på hela databasen, även om användaren bara behöver en enda bit. I den här artikeln studerar vi PIR:s beräkningskomplex. Vi visar att i standard PIR-modellen, där servrarna bara har databasen, kan linjär beräkning inte undvikas. För att lösa detta problem föreslår vi modellen av PIR med förbehandling: Innan genomförandet av protokollet varje server kan beräkna och lagra polynomiskt många informationsbitar om databasen; senare, denna information bör göra det möjligt för servrarna att svara på varje fråga av användaren med mer effektiv beräkning. Vi visar att förbehandling avsevärt kan spara arbete. I synnerhet konstruerar vi för eventuella konstanter k ≥ 2 och > 0: (1) ett k- serverprotokoll med O(n 1/(2k- 1) ) kommunikation, O(n/ log 2k‐ 2 n) arbete, och O(n 1+ ) lagring; (2) ett k- server protokoll med O(n 1/k+ ) kommunikation och arbete och n O(1) lagring; (3) ett beräknings- privat k- server protokoll med O(n ) kommunikation, O(n 1/k+ ) arbete, och n O(1) lagring; och (4) ett protokoll med ett polylogaritmiskt antal servrar, polylogaritmisk kommunikation och arbete, och O(n 1+ ) lagring. På den nedre gränsen fram, Vi bevisar att produkten av den extra lagring som används av servrarna (dvs., förutom längden på databasen) och den förväntade mängden arbete är minst linjär i n. Slutligen föreslår vi två alternativa modeller för att spara beräkning, genom batching frågor och genom att tillåta en separat off-line interaktion per framtida fråga.
Teoretiskt arbete visar att det kollektiva arbete som krävs av servrarna för att svara på en klients begäran våg åtminstone linjärt med storleken på databasen REF.
12,258,286
Reducing the servers' computation in private information retrieval: Pir with preprocessing
{'venue': 'In CRYPTO 2000', 'journal': None, 'mag_field_of_study': ['Computer Science']}
21
Sammanfattning Vi visar med stor sannolikhet att en skippa graf innehåller en 4-regelbunden expander som en subgraf och uppskattar kvaliteten på expansionen via simuleringar. Som en följd av detta, hoppa grafer innehåller en stor ansluten komponent även efter en kontradiktorisk radering av noder. Vi visar hur expansionsfastigheten kan användas för att provsmaka en nod i skip-grafen på ett mycket effektivt sätt. Vi visar också att expansionsfastigheten kan användas för att ladda balans hoppa grafen snabbt. Slutligen visas att skip-grafen kan fungera som ett ostrukturerat P2P-system, vilket gör det till en bra kandidat för ett hybrid P2P-system.
Det visades i REF att hoppa grafer innehåller expanders som subgraphs w.h.p., som kan användas som en randomiserad expander konstruktion.
5,986,866
The expansion and mixing time of skip graphs with applications
{'venue': 'Distributed Computing', 'journal': 'Distributed Computing', 'mag_field_of_study': ['Computer Science', 'Engineering']}
22
Abstrakt. Ärliga men nyfikna molnservrar kan göra slutsatser om lagrade krypterade dokument och profilen för en användare när den känner till nyckelorden som frågas av henne och nyckelorden i dokumenten. Vi föreslår två gradvis förfinade integritetsbevarande konjunktiva symmetriska sökbara krypteringssystem (PCSSE) som gör det möjligt för molnservrar att utföra konjunktiva sökordssökningar på krypterade dokument med olika sekretessgarantier. Vårt schema genererar randomiserade sökfrågor som hindrar servern från att upptäcka om samma uppsättning nyckelord söks av olika frågor. Det kan också dölja antalet nyckelord i en fråga samt antalet nyckelord som ingår i ett krypterat dokument. Vårt sökbara krypteringssystem är effektivt och samtidigt är det säkert mot den adaptiva valda sökord attack.
Senare, Moataz et al. REF föreslog Konjunktiv Symmetric Searchable Encryption system som tillåter konjunktiv sökordssökning på krypterade dokument med olika sekretessgarantier.
6,510,158
Privacy-Preserving Multiple Keyword Search on Outsourced Data in the Clouds
{'venue': 'DBSec', 'journal': None, 'mag_field_of_study': ['Computer Science']}
23
Abstract-För att robotar ska vara en del av vårt dagliga liv, måste de kunna navigera bland folkmassor inte bara säkert utan också på ett socialt överensstämmande sätt. Detta är ett utmanande problem, eftersom människor tenderar att navigera genom att implicit samarbeta med varandra för att undvika kollisioner, medan de är på väg mot sina respektive destinationer. Tidigare metoder har använt handgjorda funktioner baserade på närhet till modellera människa-human och människa-robotinteraktioner. Dessa tillvägagångssätt kan dock bara modellera enkla interaktioner och misslyckas med att generalisera för komplexa trånga inställningar. I detta dokument utvecklar vi en strategi som modellerar den gemensamma fördelningen över framtida banor för alla samverkande agenter i publiken, genom en lokal interaktionsmodell som vi tränar med hjälp av verkliga mänskliga bana data. Interaktionsmodellen utgår från hastigheten hos varje agent baserat på den rumsliga orienteringen hos andra agenter i hans närhet. Under förutsägelse, vår strategi drar slutsatsen att agenten från sin tidigare bana och använder den lärda modellen för att förutsäga dess framtida bana. Vi demonstrerar vår metods prestanda mot ett toppmodernt synsätt på en offentlig datauppsättning och visar att vår modell överträffar varandra när vi förutsäger framtida banor för längre horisonter.
I REF framtida banor för alla interagerande medel modelleras genom att lära sociala interaktioner från verkliga data med hjälp av en Gaussian Process-modell.
1,491,148
Modeling cooperative navigation in dense human crowds
{'venue': '2017 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2017 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Engineering', 'Computer Science']}
24
Det finns många stora utmaningar för den psykiska hälsan, men en av dem är bristen på data som kan vägleda forskningen. Språk ger en naturlig lins för att studera psykisk hälsa - mycket existerande arbete och terapi har starka språkliga komponenter, så skapandet av en stor, varierad, språk-centrerad datauppsättning kan ge betydande gris för området mental hälsa forskning. Vi undersöker ett brett spektrum av psykiska hälsa villkor i Twitter data genom att identifiera självrapporterade uttalanden av diagnos. Vi undersöker systematiskt språkskillnaderna mellan tio villkor med avseende på befolkningen i allmänhet och med varandra. Vårt mål är att ge vägledning och en färdplan för där djupare utforskning sannolikt kommer att bli fruktbar.
Coppersmith m.fl. REF undersökte ett brett spektrum av psykiska hälsa villkor i Twitter data genom att identifiera självrapporterade uttalanden av diagnos, och de tog de experimentella resultaten som bevis för att undersöka psykisk hälsa genom linsen av språket var bördig grund för framsteg i psykisk hälsa.
96,824
From ADHD to SAD: Analyzing the Language of Mental Health on Twitter through Self-Reported Diagnoses
{'venue': 'CLPsych@HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
25
Abstract-We present a new domain adaption approach for att lösa problem med cross-domain mönsterigenkänning, d.v.s. de data eller funktioner som ska behandlas och erkännas samlas in från olika områden av intresse. Inspirerade av kanonisk korrelationsanalys (CCA) använder vi härledd korrelationsdelrymd som en gemensam representation för att associera data över olika domäner, och vi avancerar reducerade kärntekniker för kärnan CCA (KCCA) om ickelinjär korrelationsdelrymd är önskvärd. Sådana tekniker gör inte bara KCCA-beräkningen mer effektiv, potentiella övermonteringsproblem kan också lindras. Istället för att direkt utföra igenkänning i det härledda CCA-delutrymmet (som tidigare CCA-baserade domänanpassningsmetoder gjorde), förespråkar vi exploatering av domänöverföringsförmågan i detta subrymdsområde, där varje dimension har en unik förmåga att associera data över domäner. I synnerhet föreslår vi en ny stöd vektor maskin (SVM) med en korrelation regularizer, namngiven korrelation-överföring SVM, som införlivar domänanpassning förmåga till klassificering design för cross-domain igenkänning. Vi visar att vår föreslagna domänanpassnings- och klassificeringsmetod med framgång kan tillämpas på en mängd olika igenkänningsuppgifter som t.ex. igenkänning av korsvisa åtgärder, handskriven igenkänning av siffror med olika funktioner och klassificering av bilder till text eller text till bild. Utifrån våra empiriska resultat verifierar vi att vår föreslagna metod överträffar state-of-the-art domänanpassningsstrategier när det gäller igenkänningsprestanda.
Inspirerad av Canonical Correlation Analysis (CCA), använder författarna till REF en korrelation subspace som en gemensam representation för att associera data över olika domäner.
13,828,880
Heterogeneous Domain Adaptation and Classification by Exploiting the Correlation Subspace
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']}
26
Vi presenterar tekniker för att påskynda testtidsutvärderingen av stora konvolutionsnätverk, utformade för objektigenkänningsuppgifter. Dessa modeller ger imponerande noggrannhet, men varje bildutvärdering kräver miljontals flyttalsoperationer, vilket gör deras spridning på smartphones och internetkluster problematiskt. Beräkningen domineras av konvolutionsverksamheten i de lägre skikten av modellen. Vi utnyttjar redundansen i konvolutionsfiltren för att härleda approximationer som avsevärt minskar den nödvändiga beräkningen. Med hjälp av stora state-of-the-art modeller, visar vi hastigheter av konvolutionella lager på både CPU och GPU med en faktor på 2×, samtidigt som noggrannheten inom 1% av den ursprungliga modellen.
Inspirerad av denna teknik, en låg rang approximation för convolution lager uppnår dubbelt så hög hastighet samtidigt hålla sig inom 1% av den ursprungliga modellen i termer av noggrannhet REF.
7,340,116
Exploiting Linear Structure Within Convolutional Networks for Efficient Evaluation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
27
Vi studerar problemet med kontrollerbar delegering av beräkning över outsourcade data, varigenom en kraftfull arbetare upprätthåller en stor datastruktur för en svag klient på ett kontrollerbart sätt. Jämfört med det välstuderade problemet med kontrollerbara beräkningar medför denna inställning ytterligare svårigheter, eftersom kontrollören också måste kontrollera att uppdateringarna är konsekventa på ett koncist sätt och utan att upprätthålla ett stort tillstånd. Vi presenterar ett system för verifierbar utvärdering av hierarkiska set-operationer (unioner, korsningar och set-differences) som tillämpas på en samling dynamiskt föränderliga element från en given domän. Kontrollkostnaden är proportionerlig endast till storleken på det slutliga resultatet och till frågans storlek, och är oberoende av kardinaliteterna i de berörda uppsättningarna. Kostnaden för uppdateringar är optimal (inklusive O(1) modulära operationer per uppdatering). Vår konstruktion utökar den av [Papamanthou et al., CRYPTO 2011] och förlitar sig på en modifierad version av den utdragbara kollisionsresistenta hashfunktion (ECRH) konstruktion, infördes i [Biansky et al., ITCS 2012] som kan användas för att koncist hash univariata polynomials.
Canetti m.fl. utökat det genom att tillåta datauppdateringar och monolitisk verifiering av hierarkiska åtgärder REF.
8,750,990
Verifiable Set Operations over Outsourced Databases
{'venue': 'Public Key Cryptography', 'journal': None, 'mag_field_of_study': ['Computer Science']}
28
Abstrakt. Vi introducerar en formdetektion ram som kallas Contour Context Selection för att upptäcka objekt i belamrade bilder med bara ett exempel. Formbaserad detektion är invariant för förändringar av objektets utseende, och kan resonera med geometrisk abstraktion av objektet. Vårt tillvägagångssätt använder framträdande konturer som integral polletter för formmatchning. Vi söker en maximal, holistisk matchning av former, som kontrollerar formfunktioner från en stor rumslig omfattning, samt långa kontextuella relationer mellan objektdelar. Detta innebär att man hittar korrekt figur-/markkonturmärkning och optimal korrelation mellan styrpunkter på/runt konturer. Detta tar bort oavsiktliga justeringar och hallucinerar inte föremål i bakgrunden skräp, utan negativa träningsexempel. Vi formulerar denna uppgift som ett set-to-set kontur matchande problem. Naiva metoder skulle kräva sökning över "exponentiellt" många figur / mark konturmärkningar. Vi förenklar denna uppgift genom att koda formbeskrivningen algebraiskt i en linjär form av konturfigur/jordvariabler. Detta gör att vi kan använda den tillförlitliga optimeringstekniken för linjär programmering. Vi visar vår inställning till den utmanande uppgiften att upptäcka flaskor, svanar och andra föremål i belamrade bilder.
I REF, Zhu et al. formulera formen matchning av kontur i skräp som en uppsättning för att ställa matchande problem, och presentera en ungefärlig lösning på det hårda kombinatoriska problemet genom att använda ett röstningssystem.
9,878,393
Contour Context Selection for Object Detection : A Set-to-Set Contour Matching Approach
{'venue': 'ICPR (3)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
29
Forskare som studerar vardagslivets rörlighetsmönster har nyligen visat att människor vanligtvis är mycket förutsägbara i sina rörelser. Inget befintligt arbete har dock undersökt gränserna för denna förutsägbarhet, där mänskligt beteende tillfälligt övergår från rutinmönster till mycket oförutsägbara tillstånd. För att ta itu med denna brist tar vi itu med två inbördes relaterade utmaningar. För det första utvecklar vi en ny informationsteoretisk metriska, så kallad momentan entropi, för att analysera en individs rörlighetsmönster och identifiera tillfälliga avvikelser från rutinen. För det andra, för att förutsäga sådana avgångar i framtiden, föreslår vi det första Bayesianska ramverket som uttryckligen modellerar bryter från rutin, vilket visar att det överträffar nuvarande toppmoderna prediktorer.
I en nyligen genomförd studie REF föreslås metoder för att identifiera och förutsäga avvikelser från rutiner inom individuell rörlighet med hjälp av informationsteoretiska mått, såsom momentan entropi, och utveckling av ett Bayesianskt ramverk som uttryckligen modellerar tendensen hos individer att bryta från rutin.
624,605
Breaking the habit: Measuring and predicting departures from routine in individual human mobility
{'venue': 'Pervasive Mob. Comput.', 'journal': 'Pervasive Mob. Comput.', 'mag_field_of_study': ['Computer Science']}
30
Twitter, en mikrobloggningstjänst som är mindre än tre år gammal, har mer än 41 miljoner användare i juli 2009 och växer snabbt. Twitter-användare tweet om något ämne inom 140 teckengränsen och följa andra för att få sina tweets. Målet med denna uppsats är att studera de topologiska egenskaperna hos Twitter och dess makt som ett nytt medium för informationsutbyte. Vi har krupit hela Twitter-webbplatsen och fått 41,7 miljoner användarprofiler, 1,47 miljarder sociala relationer, 4, 262 trender och 106 miljoner tweets. I sin topologianalys har vi funnit en icke-power-law efterföljare distribution, en kort effektiv diameter, och låg ömsesidighet, som alla markerar en avvikelse från kända egenskaper hos mänskliga sociala nätverk [28]. För att identifiera inflytelserika på Twitter har vi rankat användare efter antalet följare och av PageRank och funnit två rankningar vara likartade. Rankningen av retweets skiljer sig från de två tidigare rankingarna, vilket tyder på en skillnad i inflytande som kan härledas från antalet anhängare och från populariteten av ens tweets. Vi har analyserat tweets av topptrenderande ämnen och rapporterat om deras temporal beteende och användarens deltagande. Vi har klassificerat de trendiga ämnena baserat på den aktiva perioden och tweetsen och visar att majoriteten (över 85 %) av ämnena är huvudnyheter eller bestående nyheter i naturen. En närmare titt på retweets visar att en retweetad tweet är att nå ett genomsnitt på 1, 000 användare oavsett antalet följare av den ursprungliga tweeten. När retweeted, en tweet får retweeted nästan omedelbart på nästa humle, vilket innebär snabb spridning av information efter 1: a retweet. Såvitt vi vet är detta arbete den första kvantitativa studien på hela Twittersfären och informationsspridningen på den.
I REF analyserade författarna hela Twitter-grafen för att bedöma dess topologiska egenskaper.
207,178,765
What is Twitter, a social network or a news media?
{'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Political Science']}
31
Vi tillämpar en allmän ram för djupt lärande för att ta itu med den icke-faktoida frågeuppgiften. Vår strategi bygger inte på några språkliga verktyg och kan tillämpas på olika språk eller domäner. Olika arkitekturer presenteras och jämförs. Vi skapar och släpper en QA corpus och ställer in en ny QA-uppgift i försäkringsdomänen. Experimentella resultat visar på överlägsen prestanda jämfört med referensmetoderna och olika tekniker ger ytterligare förbättringar. För denna mycket utmanande uppgift kan topp-1-noggrannheten nå upp till 65,3 % på en testuppsättning, vilket tyder på en stor potential för praktisk användning.
Dessa metoder för representationsinlärning bygger inte på några språkliga verktyg och kan tillämpas på olika språk eller domäner REF.
3,477,924
Applying deep learning to answer selection: A study and an open task
{'venue': '2015 IEEE Workshop on Automatic Speech Recognition and Understanding (ASRU)', 'journal': '2015 IEEE Workshop on Automatic Speech Recognition and Understanding (ASRU)', 'mag_field_of_study': ['Computer Science']}
32
Abstract -Som webben expanderar dag för dag och människor i allmänhet förlitar sig på webben för kommunikation så e-post är det snabbaste sättet att skicka information från en plats till en annan. Nu en dag är alla transaktioner all kommunikation oavsett om allmänna eller affärer sker via e-post. E-post är ett effektivt verktyg för kommunikation eftersom det sparar mycket tid och kostnader. Men e-post påverkas också av attacker som inkluderar Spam Mails. Spam är användningen av elektroniska meddelandesystem för att skicka bulkdata. Spam översvämmar Internet med många kopior av samma budskap, i ett försök att tvinga budskapet på människor som annars inte skulle välja att ta emot det. I denna studie analyserar vi olika data mining tillvägagångssätt för spam dataset för att ta reda på den bästa klassificeringen för e-post klassificering. I den här artikeln analyserar vi prestandan hos olika klassificeringar med funktionsvalsalgoritm och utan funktionsvalsalgoritm. Inledningsvis experimenterar vi med hela datasetet utan att välja funktioner och tillämpa klassificeringar en efter en och kontrollera resultaten. Sedan tillämpar vi Best-First-funktionsvalalgoritm för att välja de önskade funktionerna och sedan tillämpa olika klassificeringar för klassificering. I denna studie har man funnit att resultaten förbättras i form av noggrannhet när vi bäddar in urvalsprocessen för funktionen i experimentet. Slutligen hittade vi Random Tree som bästa klassificering för skräppost klassificering med noggrannhet = 99,72%. Fortfarande ingen av algoritmen uppnår 100% noggrannhet i att klassificera spam e-post men Random Tree är mycket i närheten av det.
Megha Rathi och Vikas Pareek(2013) gjorde en analys på spam e-post upptäckt genom Data Mining genom att utföra analys på klassificeringar genom att välja och utan att välja funktioner REF.
35,670,502
Spam Mail Detection through Data Mining – A Comparative Performance Analysis
{'venue': None, 'journal': 'International Journal of Modern Education and Computer Science', 'mag_field_of_study': ['Computer Science']}
33
I detta dokument, vi anser en två-användare mobile-edge computing (MEC) nätverk, där varje trådlös enhet (WD) har en sekvens av uppgifter att utföra. I synnerhet anser vi att uppgiftsberoendet mellan de två WD, där inmatningen av en uppgift vid en WD kräver den slutliga uppgiften output vid den andra WD. Under den ansedda uppgiftsberoende modellen studerar vi den optimala uppgiften att avlasta policy och resursfördelning (vid avlastning av sändningskraft och lokala CPU-frekvenser) som minimerar den viktade summan av WDs energiförbrukning och utförandetid. Problemet är utmanande på grund av den kombinatoriska karaktären av avlastningsbeslutet bland alla uppgifter och den starka kopplingen med resursfördelning bland efterföljande uppgifter. När avlastningsbeslutet ges får vi de slutna formuttrycken för avlastning av sändningseffekt och lokala CPU-frekvenser och föreslår en effektiv metod för att få fram optimala lösningar. Dessutom bevisar vi att det optimala avlastningsbeslutet följer en enkelklumppolicy, som bygger på vilken en algoritm med reducerad komplexitet föreslås för att uppnå det optimala avlastningsbeslutet på polynomtid. Numeriska resultat bekräftar effektiviteten hos våra föreslagna metoder.
När datauppgifter på olika MUs har inputoutput beroende, REF studerar den optimala binära offloading strategi och resursallokering som minimerar beräkningsfördröjning och energiförbrukning.
53,082,484
Optimal Offloading and Resource Allocation in Mobile-Edge Computing with Inter-User Task Dependency
{'venue': '2018 IEEE Global Communications Conference (GLOBECOM)', 'journal': '2018 IEEE Global Communications Conference (GLOBECOM)', 'mag_field_of_study': ['Computer Science']}
34
Vi introducerar en modell för informationsspridning bland en population av N-agenter som sprids på en kvadrat L × L-lattice, med början från en informerad agent (Källa). Information som går från informerade till omedvetna agenser inträffar när det relativa avståndet är ≤ 1. Numeriska simuleringar visar att den tid som krävs för att informationen ska nå alla agensskalor som N −α L β, där α och β är icke-integer. En sönderfallsfaktor z tar hänsyn till degenerationen av information när den går från en agent till en annan; den slutliga genomsnittliga graden av information av befolkningen, Iav(z), är således historia-beroende. Vi finner att beteendet hos Iav(z) är icke-monotoniskt med avseende på N och L och visar en uppsättning minima. En del av resultaten återvinns med analytiska approximationer.
Agliari m.fl. studerade information som sprids i en population av diffusa medel REF.
17,928,479
Efficiency of information spreading in a population of diffusing agents
{'venue': 'Physical review. E, Statistical, nonlinear, and soft matter physics', 'journal': 'Physical review. E, Statistical, nonlinear, and soft matter physics', 'mag_field_of_study': ['Medicine', 'Physics']}
35
De kombinerade framstegen med öppna mobila plattformar och sociala nätverksapplikationer online (SNA) driver genomträngande datorer till de verkliga användarna, eftersom de mobila SNA:erna förväntas revolutionera den trådlösa applikationsindustrin. Samtidigt som delning av lokalisering via mobila SNA:er är användbar för informationsåtkomst och användarinteraktioner, måste integritetsfrågor behandlas på utformningsnivå för mobila SNA:er. I den här artikeln undersöker vi mobila SNA:er som finns tillgängliga idag och vi analyserar deras integritetsdesigner med hjälp av feedback och kontrollramverk för informationsinsamling, konstruktion, tillgänglighet och ändamål. Våra analysresultat tyder på att dagens mobila SNA:er behöver bättre integritetsskydd för konstruktion och tillgänglighet, för att hantera allt populärare mashups mellan olika SNA-platser. Vi identifierar också två oväntade integritetsbrott och föreslår tre möjliga scenarier för platsmissbruk med hjälp av mobila SNA:er.
Forskning inom REF studerar integriteten hos mobil design av sociala nätverk.
2,250,582
Analyzing Privacy Designs of Mobile Social Networking Applications
{'venue': '2008 IEEE/IFIP International Conference on Embedded and Ubiquitous Computing', 'journal': '2008 IEEE/IFIP International Conference on Embedded and Ubiquitous Computing', 'mag_field_of_study': ['Computer Science']}
36
ABSTRACT I detta papper studerar vi radiofrekvensenergiskörd (EH) i ett trådlöst sensornätverk i närvaro av flera tjuvlyssnare (EAV). Specifikt, sensorkällan och flera givare reläer skördeenergi från flera kraftöverföringsstationer (PTS), och sedan, källan använder denna skördade energi för att överföra information till basstationen (BS) med hjälp av reläerna. Under informationsöverföringen löper BS vanligtvis en risk att förlora information på grund av EAV. För att öka hemlighetsmakeriet i det aktuella systemet fungerar ett av reläerna som en störsändare och använder avverkad energi för att generera störningar i EAV:erna. Vi föreslår för detta ändamål ett system som är det bästa och bästa och som jämför detta system med andra tidigare system. Det exakta uttrycket i sluten form för sannolikheten för avbrott i sekretessen (SOP) erhålls och valideras genom Monte Carlo-simuleringar. En nästan optimal EH-tidsalgoritm föreslås också. Dessutom undersöks effekterna på SOP av nyckelsystemparametrar såsom EH-effektivitetskoefficienten, EH-tiden, avståndet mellan reläet och BS, antalet PTS, antalet reläer och antalet EAV. Resultaten tyder på att det föreslagna systemet i allmänhet överträffar både systemet med bäst-sanering-och-random-jammer och systemet med slumpmässig-relay-och-best-jammer när det gäller sekretesskapacitet. INDEX TERMS Energiskörd, trådlösa sensornätverk, relänätverk, vänlig störning, fysisk lagersäkerhet.
Resultaten visade att det föreslagna systemet överträffade både det bästa-relay och-random-jammer-systemet och det slumpmässiga-relay-och-bestjammer-systemet när det gäller sekretessprestanda Ref.
21,709,243
Secrecy Outage Performance Analysis for Energy Harvesting Sensor Networks With a Jammer Using Relay Selection Strategy
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
37
QoS-medveten dynamisk bindning av sammansatta tjänster ger möjlighet att binda varje tjänst anspelning i en sammansättning till en tjänst som valts bland en uppsättning funktionellt likvärdiga för att uppnå ett QoS-mål, till exempel minimera svarstiden samtidigt begränsa priset under ett maximalt värde. I detta dokument föreslås ett QoS-medvetet bindande tillvägagångssätt baserat på genetiska algoritmer. Tillvägagångssättet innehåller en funktion för återbindning i tidig körning när det faktiska QoS avviker från de ursprungliga uppskattningarna, eller när en tjänst inte är tillgänglig. Metoden har genomförts inom en ram och utvärderats empiriskt genom två olika tjänstesammansättningar.
REF har föreslagit ett tillvägagångssätt som bygger på genetiska algoritmer.
181,777
A Framework for QoS-Aware Binding and Re-Binding of Composite Web Services
{'venue': 'J. Syst. Softw.', 'journal': 'J. Syst. Softw.', 'mag_field_of_study': ['Computer Science']}
38
Abstract-Fog computing ses som en lovande metod för att utföra distribuerad, låg-latency beräkning för att stödja Internet of Things applikationer. Men på grund av den oförutsägbara ankomsten av tillgängliga närliggande dimnoder, den dynamiska bildandet av ett dimnätverk kan vara utmanande. I huvudsak, en given dimma nod måste smart välja uppsättningen av angränsande dim noder som kan ge låg-latency beräkningar. I denna uppsats studeras problemet med dimnätverksbildning och uppgiftsdistribution med tanke på en hybrid cloud-fog-arkitektur. Målet med det föreslagna ramverket är att minimera den maximala beräkningslatensen genom att göra det möjligt för en viss dimnod att bilda ett lämpligt dimnätverk, under osäkerhet om ankomstprocessen för angränsande dimnoder. För att lösa detta problem föreslås ett nytt tillvägagångssätt baserat på online-sekreterarramverket. För att hitta den önskade uppsättningen angränsande dimnoder, en online-algoritm utvecklas för att möjliggöra en uppgift att initiera dimma nod för att besluta om vilka andra noder kan användas som en del av sin dimma nätverk, att avlasta beräkningsuppgifter, utan att känna till någon tidigare information om framtida ankomster av dessa andra noder. Simuleringsresultat visar att den föreslagna online-algoritm kan framgångsrikt välja en optimal uppsättning angränsande dimnoder samtidigt uppnå en latens som är lika liten som den som är resultatet av en idealisk, offline system som har fullständig kunskap om systemet. Resultaten visar också hur man med hjälp av det föreslagna tillvägagångssättet kan fördela beräkningsuppgifterna korrekt mellan dimnätverket och en fjärrmolnserver.
För att tillhandahålla dimdatatjänster studeras bildandet av dimnät i REF.
15,363,899
An online secretary framework for fog network formation with minimal latency
{'venue': '2017 IEEE International Conference on Communications (ICC)', 'journal': '2017 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
39
Abstract-Med införandet av nätverksfunktioner virtualisering teknik, migrering hela företag datacenter in i molnet har blivit en möjlighet. För att en leverantör av molntjänster (CSP) ska kunna erbjuda sådana tjänster måste dock flera forskningsproblem fortfarande åtgärdas. I tidigare arbete har vi introducerat en plattform, kallad nätverksfunktionscenter (NFC), för att studera forskningsfrågor relaterade till virtualiserade nätverksfunktioner (VNF). I en NFC antar vi att VNFs ska implementeras på virtuella maskiner som kan användas i vilken server som helst i CSP-nätverket. Vi har föreslagit en resursalgoritm för VNF baserad på genetiska algoritmer (GAs). I detta dokument presenterar vi en omfattande analys av två resursfördelningsalgoritmer baserade på GA för: 1) den inledande placeringen av VNF och 2) skalning av VNF för att stödja trafikförändringar. Vi jämför de föreslagna algoritmernas prestanda med en traditionell linjär programmeringsresursallokeringsteknik. Vi kombinerar sedan data från tidigare empiriska analyser för att generera realistiska VNF-kedjor och trafikmönster, och utvärderar resursfördelningens beslutsalgoritmer. Vi antar olika arkitekturer för datacenteret, implementerar olika fitnessfunktioner med GA, och jämför deras prestanda vid skalning över tiden.
Rankotge m.fl. REF har presenterat en resursalgoritm för VNF baserad på Generiska algoritmer (GAs).
28,867,567
Optimizing Resource Allocation for Virtualized Network Functions in a Cloud Center Using Genetic Algorithms
{'venue': 'IEEE Transactions on Network and Service Management', 'journal': 'IEEE Transactions on Network and Service Management', 'mag_field_of_study': ['Computer Science']}
40
Abstract-Vi introducerar en svagt övervakad strategi för att lära mänskliga handlingar modelleras som interaktioner mellan människor och objekt. Vårt förhållningssätt är mänskligt centrerat: Vi lokaliserar först en människa i bilden och bestämmer sedan det objekt som är relevant för handlingen och dess rumsliga förhållande till människan. Modellen lärs automatiskt från en uppsättning stillbilder som endast kommenteras med åtgärdsetiketten. Vårt tillvägagångssätt bygger på en mänsklig detektor för att initiera modellen lärande. För robusthet till olika siktgrader bygger vi en detektor som lär sig att kombinera en uppsättning befintliga deldetektorer. Med utgångspunkt från människor som upptäcks i en uppsättning bilder som skildrar handlingen bestämmer vårt tillvägagångssätt handlingens objekt och dess rumsliga förhållande till människan. Dess slututgång är en probabilistisk modell av samspelet mellan människan och objektet, d.v.s. den rumsliga relationen mellan människan och objektet. Vi presenterar en omfattande experimentell utvärdering av data om idrottsaktiviteter från [1], PASCAL Action 2010 datauppsättning [2], och en ny människa-objekt interaktion data uppsättning.
En humancentrisk strategi föreslås av REF som fungerar genom att först lokalisera en människa och sedan hitta ett objekt och dess förhållande till den.
1,819,788
Weakly Supervised Learning of Interactions between Humans and Objects
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
41
Användarna organiserar sig själva i gemenskaper på webbplattformar. Dessa samhällen kan interagera med varandra, vilket ofta leder till konflikter och giftiga interaktioner. Man vet dock inte mycket om mekanismerna för interaktion mellan samhällen och hur de påverkar användarna. Här studerar vi intercommunityinteraktioner över 36.000 samhällen på Reddit, undersöker fall där användare av en gemenskap mobiliseras av negativa känslor för att kommentera i en annan gemenskap. Vi visar att sådana konflikter tenderar att inledas av en handfull samhällen - mindre än 1 procent av samhällena startar 74 procent av konflikterna. Även om konflikter tenderar att initieras av mycket aktiva samhällsmedlemmar, genomförs de av betydligt mindre aktiva medlemmar. Vi finner att konflikter präglas av att det bildas ekokammare, där användarna i första hand talar med andra användare från sitt eget samhälle. På lång sikt har konflikter negativa effekter och minskar användarnas totala aktivitet i de berörda samhällena. Vår analys av användarinteraktioner föreslår också strategier för att mildra de negativa effekterna av konflikter, såsom ökat direkt engagemang mellan angripare och försvarare. Vidare förutser vi exakt om en konflikt kommer att uppstå genom att skapa en ny LSTM-modell som kombinerar grafinbäddningar, användare, gemenskap och textfunktioner. Denna modell kan användas för att skapa system för tidig varning för moderatorer i samhället för att förebygga konflikter. Sammantaget ger detta arbete en datadriven bild av samhällsinteraktioner och konflikter, och banar väg för hälsosammare online-gemenskaper.
Kumar m.fl. REF introducerade en metod som använder grafen inbäddningar, där grafen fångar användarinteraktioner på Reddit 1, i samarbete med användare, gemenskap, och textfunktioner för att förutsäga potentiella konflikter och efterföljande gemenskap mobilisering.
3,854,959
Community Interaction and Conflict on the Web
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
42
Detta dokument fortsätter den ganska senaste forskningslinjen om dynamiken i icke-monotoniska formalismer. I synnerhet betraktar vi semantiska förändringar i Dungs abstrakta argumentationsformalism. Ett av de mest studerade problemen i detta sammanhang är det s.k. exekutiva problemet som handlar om att manipulera argumenteringsramar så att en viss önskad uppsättning argument blir en förlängning. Här studerar vi det omvända problemet, nämligen problemet med avlägsnandet av utvidgningen: är det möjligt - och i så fall hur - att ändra en given argumentationsram på ett sådant sätt att vissa oönskade förlängningar inte längre skapas? Jämfört med det välkända AGM-paradigmet utvecklar vi ett axiomatiskt förhållningssätt till problemet med avlägsnande, d.v.s. en viss uppsättning axiom kommer att avgöra lämpliga manipulationer. Även sammandragning (dvs. eliminering av en viss tro) är begreppsmässigt helt annorlunda från förlängning avlägsnande, det finns förvånansvärt djupa kopplingar mellan de två: det visar sig att postulater för avlägsnande kan direkt erhållas som omformuleringar av årsstämman sammandragning postulates. Vi bevisar en rad formella resultat inklusive villkorlig och villkorslös existens och semantisk unikhet av avlägsnande operatörer samt olika omöjliga resultat - och visa möjliga vägar ut.
Helt nyligen, i REF ) studerades det så kallade problemet med borttagning av förlängning.
54,053,953
Extension Removal in Abstract Argumentation -- An Axiomatic Approach
{'venue': 'AAAI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
43
Vi introducerar ett djupminnesnätverk för klassning av aspektnivåkänslor. Till skillnad från funktionsbaserade SVM och sekventiella neurala modeller som LSTM fångar detta tillvägagångssätt uttryckligen betydelsen av varje sammanhangsord när man drar en aspekts känslopolaritet. Sådan betydelsegrad och text representation beräknas med flera beräkningslager, som var och en är en neural uppmärksamhet modell över ett externt minne. Experiment på bärbara datorer och restaurangdata visar att vårt arbetssätt är jämförbart med toppmoderna funktioner baserade på SVM-system, och betydligt bättre än LSTM- och uppmärksamhetsbaserade LSTM-arkitekturer. På båda dataseten visar vi att flera beräkningslager kan förbättra prestandan. Dessutom är vårt tillvägagångssätt också snabbt. Det djupa minnesnätverket med 9 lager är 15 gånger snabbare än LSTM med en CPU-implementering.
REF införde ett end-to-end-minnesnätverk för klassifikation av aspect level-känslor, som använder en uppmärksamhetsmekanism över ett externt minne för att fånga upp betydelsen av varje sammanhangsord.
359,042
Aspect Level Sentiment Classification with Deep Memory Network
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
44
Flerdimensionella Bayesianska nätverksklassificeringar (MBC) är probabilistiska grafiska modeller som nyligen föreslagits för att hantera flerdimensionella klassificeringsproblem, där varje instans i datamängden måste tilldelas mer än en klassvariabel. I detta dokument föreslår vi en Markov-filtbaserad metod för att lära MBC från data. I grund och botten består den av att bestämma Markovfilten runt varje klassvariabel med hjälp av HITON-algoritmen, och sedan ange riktningen över MBC-subgraferna. Vår strategi tillämpas på det prediktiva problemet med European Quality of Life-5 Dimensions (EQ-5D) från frågeformulären om Parkinsons sjukdom på 39 punkter (PDQ-39) för att uppskatta den hälsorelaterade livskvaliteten för patienter med Parkinsons sjukdom. Femfaldiga korsvalideringsförsök utfördes på slumpmässigt genererade syntetiska dataset, Jästdataset, samt på en verklig Parkinsons sjukdomsuppsättning med 488 patienter. Den experimentella studien, inklusive jämförelse med ytterligare Bayesian nätverksbaserade metoder, bakåtutbredning för multi-label inlärning, multi-label k-nearest granne, multinomial logistisk regression, vanliga minst kvadrater, och censurerade minst absoluta avvikelser, visar uppmuntrande resultat i termer av prediktiv noggrannhet samt identifiering av beroendeförhållanden mellan klass- och funktionsvariabler.
Borchani m.fl. I REF föreslås vidare en Markov-filtbaserad metod för att utbilda MBC från multioutputdata.
205,713,058
Markov blanket-based approach for learning multi-dimensional Bayesian network classifiers : An application to predict the European Quality of Life-5 Dimensions ( EQ-5 D ) from the 39-item Parkinson ’ s Disease Questionnaire ( PDQ-39 )
{'venue': 'Journal of biomedical informatics', 'journal': 'Journal of biomedical informatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
45
Bakgrund: Cloud computing är ett unikt paradigm som samlar resurser tillgängliga från molntjänstleverantörer för att användas av kunder på begäran och betala per användning. Det finns en Cloud-federation som integrerar de fyra primära Cloud-modellerna och Cloud-aggregatorn som integrerar flera datortjänster. En systematisk kartläggningsstudie ger en översikt över det arbete som utförts inom ett visst intresseområde och identifierar luckor för ytterligare forskning. Mål: Syftet med detta dokument var att genomföra en studie av installations- och designmodeller för Cloud med hjälp av en systematisk kartläggningsprocess. Metodiken handlar om att undersöka den centrala aspekten av studieområdet med hjälp av forsknings-, bidrags- och ämnesaspekterna. Resultaten visade att det fanns fler publikationer om lösningsförslag, som utgjorde 41,98 % av dokumenten om utformning och spridning av modeller på molnet. Av detta handlade 5,34 % om säkerhet, 1,5 % om integritet, 6,11 % om konfiguration, 7,63 % om genomförande, 11,45 % om användning av tjänster och 9,92 % om utformning av lösningar. De resultat som erhålls kommer att vara användbara för ytterligare studier av den akademiska världen och industrin i detta breda ämne som undersöktes.
REF är modeller för molndesign och spridning: en systematisk kartläggningsstudie.
198,134,639
Cloud designs and deployment models: a systematic mapping study
{'venue': 'BMC Research Notes', 'journal': 'BMC Research Notes', 'mag_field_of_study': ['Medicine']}
46
För att korrekt matcha poster är det ofta nödvändigt att använda semantik av data. Funktionella beroenden (FDs) har visat sig användbara för att identifiera tuples i ett rent förhållande, baserat på semantik av data. Av alla skäl som FDs och deras slutsatser behövs, är det också viktigt att utveckla beroenden och deras resonemang tekniker för att matcha tuples från opålitliga datakällor. Denna tidning undersöker beroenden och deras resonemang för rekordmatchning. (a) Vi inför en klass av matchande beroenden (MDs) för att specificera semantik av data i opålitliga relationer, definieras i termer av likhetsmått och en dynamisk semantik. (b) Vi identifierar ett specialfall av MDs, som kallas relativa kandidat nycklar (RCKs), för att avgöra vilka attribut att jämföra och hur man jämför dem när matcha poster över möjligen olika relationer. (c) Vi föreslår en mekanism för att härleda MDs, en avvikelse från traditionell implicit analys, så att när vi inte kan matcha poster genom att jämföra attribut som innehåller fel, kan vi fortfarande hitta matchningar genom att använda andra, mer tillförlitliga attribut. (d) Vi tillhandahåller en O(n 2 ) tid algoritm för att härleda MDs, och en effektiv algoritm för att härleda en uppsättning RCKs från MDs. (e) Vi verifierar experimentellt att algoritmerna hjälper till att matcha verktyg effektivt identifiera nycklar vid kompileringstid för matchning, blockering eller fönster, och att teknikerna effektivt förbättrar både kvaliteten och effektiviteten hos olika rekordmatchningsmetoder.
Motiveringsmekanism för att härleda MD från en uppsättning givna MD studeras i REF.
2,690,556
Reasoning about Record Matching Rules
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
47
De befintliga vattenmarkeringssystemen utformades för att inbädda vattenstämpelinformationen i de ursprungliga bilderna, som är sårbara för obehörig åtkomst. I detta dokument har vi föreslagit en ny och genomförbar vattenmärkningsalgoritm i den krypterade domänen. Först krypterade vi både original medicinsk bild och vattenstämpel bild genom att använda DCT och Logistik karta; Sedan vi inbäddade vattenstämpel i den krypterade medicinska bilden. I vattenmärkning inbäddning och extraktion fas, har nollvattenmärkning teknik använts för att säkerställa integriteten av medicinska bilder. I slutet av tidningen jämförde vi vattenmarkeringsalgoritmens robusthet mellan de okrypterade och krypterade tillvägagångssätten. Resultaten visar att den föreslagna algoritmen i krypterade domäner inte bara är robust mot vanliga bildprocesser såsom Gaussiskt brus, JPEG-komprimering, medianfiltrering, utan också tål nivåer av geometriska förvrängningar, som kan användas i informationsskydd för både ursprungliga medicinska bilder och vattenstämpelbilder.
Dong m.fl. föreslog en ny och genomförbar vattenmärkningsalgoritm i den krypterade domänen genom att använda DCT REF.
27,562,386
A Robust Watermarking Algorithm for Encrypted Medical Images Based on DCT Encrypted Domain
{'venue': 'Proceedings of the 2015 International Conference on Electronic Science and Automation Control', 'journal': 'Proceedings of the 2015 International Conference on Electronic Science and Automation Control', 'mag_field_of_study': ['Computer Science']}
48
Vi beskriver en algoritm, IsoRank, för global anpassning av två protein-protein interaktion (PPI) nätverk. IsoRank syftar till att maximera den totala matchningen mellan de två nätverken; däremot har mycket av tidigare arbete fokuserat på den lokala anpassningen problem-identifiera många möjliga anpassningar, var och en motsvarar en lokal region av likhet. IsoRank styrs av intuitionen att ett protein bör matchas med ett protein i det andra nätverket om och endast om grannarna till de två proteinerna också kan matchas väl. Vi kodar denna intuition som ett eigen value problem, på ett sätt som liknar Googles PageRank metod. Vi använder IsoRank för att beräkna den första kända globala anpassningen mellan S. cerevisiae och D. melanogaster PPI-nätverk. Den gemensamma subgrafen har 1420 kanter och beskriver bevarade funktionella komponenter mellan de två arterna. Jämförelser av våra resultat med de av en välkänd algoritm för lokal nätverksanpassning indikerar att den globalt optimerade anpassningen löser tvetydighet som införts av flera lokala anpassningar. Slutligen tolkar vi resultaten av global anpassning för att identifiera funktionella ortologs mellan jäst och fluga; vår funktionella ortolog förutsägelse metod är mycket enklare än en nyligen föreslagen strategi och ändå ger resultat som är mer omfattande. Motsvarande författare. Även med Institutionen för matematik, MIT interaktion mellan proteiner. Beräkningsanalyser av dessa nätverk har redan gett värdefulla insikter: den skalfria karaktären hos dessa nätverk och den oproportionerliga betydelsen av "hub"-proteiner [30], kombinationen av dessa nätverk med genuttrycksdata för att urskilja några av cellens dynamiska karaktär [8], användningen av PPI-nätverk för att härleda biologisk funktion [20], etc. När fler PPI-data blir tillgängliga, visar sig jämförande analys av PPI-nätverk (överart) vara ett värdefullt verktyg. En sådan analys liknar i andemeningen traditionella sekvensbaserade jämförande genomiska analyser; den utlovar också motsvarande insikter. En sådan analys kan identifiera bevarade funktionella komponenter mellan olika arter [15]. Som ett fylogenetiskt verktyg erbjuder det ett funktionsinriktat perspektiv som kompletterar traditionella sekvensbaserade metoder. Det underlättar också överföring av kommentarer mellan arter. Verkligen, Bandyopadhyay et al. [3] har visat att användningen av PPI-nätverk vid beräkning av ortologer producerar ortologikartläggningar som bättre bevarar proteinfunktionen mellan olika arter. I detta dokument undersöker vi en ny metod för jämförande analys av PPI-nätverk. Särskilt anser vi att problemet med att hitta den optimala globala anpassningen mellan två PPI-nätverk, som syftar till att hitta en korrelation mellan noder och kanter av inmatningsnäten som maximerar den totala matchningen mellan de två nätverken. För detta problem, föreslår vi en ny pairwise global anpassningsalgoritm, IsoRank.
I REF, Singh et al. presentera IsoRank, en algoritm för pairwise global anpassning av PPI-nätverk som syftar till att hitta en korrespondens mellan noder och kanter av inmatningsnätverken som maximerar den totala matchningen mellan de två nätverken.
6,304,597
Pairwise global alignment of protein interaction networks by matching neighborhood topology
{'venue': 'RECOMB', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
49
Forskning har visat att datorer är notoriskt dåliga på att stödja hanteringen av parallella aktiviteter och avbrott, och att rörligheten ökar svårighetsgraden och omfattningen av dessa problem. I detta dokument presenteras aktivitetsbaserad databehandling (ABC) som kompletterar det vanliga data- och applikationsorienterade datorparadigmet med teknik för hantering av flera, parallella och mobila arbetsaktiviteter. Vi presenterar utformningen och genomförandet av ABC-stöd inbäddat i Windows XP operativsystem. Detta inkluderar att byta ut aktivitetsfältet i Windows med en aktivitetsrad, stöd för hantering av Windows-program, ett zoombart användargränssnitt och stöd för att flytta aktiviteter över olika datorer. Vi rapporterar en utvärdering av detta Windows XP ABC-system som är baserat på en multi-metod, där upplevd användarvänlighet och användbarhet utvärderades tillsammans med rika intervjumaterial. Denna utvärdering visade att användarna tyckte att ABC XP-tillägget var lätt att använda och sannolikt var användbart i sitt eget arbete.
En annan grupp, baserad vid University of Aarhus i Danmark REF, har testat en förlängning till Windows XP operativsystem för Activity Based Computing (ABC).
9,648,288
Support for activity-based computing in a personal computing operating system
{'venue': 'CHI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
50
Abstract-I detta papper diskuteras feltolerans i ett multi-radio nätverk. Feltolerans uppnås med hjälp av BeeHive routing-algoritmen. Tidningen diskuterar fel som läggs till systemet som slumpmässiga fluktuationer i hårdvara radiodrift. Multiradionoder är utformade med hjälp av WiMAX och WiFi Radios som arbetar i samband med att du använder trafikdelning för att överföra data över ett multi-hop nätverk. Under driften av detta nätverk slumpmässiga fel införs genom att stänga av vissa radioapparater i noder. I tidningen diskuteras feltolerans som tillämpas på multiradionoder som använder trafikdelning i överföringen av data. Vi föreslår också en metod för att hantera slumpmässiga fel i maskinvaruradio genom att använda trafikdelning och kombinera den med BeeHive routing algoritm.
Kiran K et al (2014) REF diskuterar feltolerans i ett multiradionät.
22,260,439
Fault tolerant BeeHive routing in mobile ad-hoc multi-radio network
{'venue': '2014 IEEE REGION 10 SYMPOSIUM', 'journal': '2014 IEEE REGION 10 SYMPOSIUM', 'mag_field_of_study': ['Engineering']}
51
De nuvarande metoderna för semantisk tolkning bygger på en övervakad metod som kräver en betydande mängd utbildningsuppgifter som är dyra och svåra att få tag på. Denna flaskhals för övervakning är en av de största svårigheterna med att skala upp semantisk tolkning. Vi hävdar att en semantisk parser kan tränas effektivt utan kommenterade data, och införa en oövervakad inlärningsalgoritm. Algoritmen tar en självträningsmetod driven av förtroendeuppskattning. Utvärderad över Geoquery, en standard dataset för denna uppgift, vårt system uppnådde 66% noggrannhet, jämfört med 80% av dess helt övervakade motsvarighet, visar löftet om oövervakade strategier för denna uppgift.
Det är också möjligt att själv träna en semantisk parser utan några märkta data REF.
9,111,381
Confidence Driven Unsupervised Semantic Parsing
{'venue': 'Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies', 'journal': None, 'mag_field_of_study': ['Computer Science']}
52
Abstrakt. Vi presenterar en ny metod för att generera exakt och realistisk kläddeformation från verklig datainsamling. Tidigare metoder för realistiska klädmodellering bygger främst på intensiv beräkning av fysikbaserad simulering (med många heuristiska parametrar), medan modeller som rekonstrueras från visuella observationer vanligtvis lider av brist på geometriska detaljer. Här föreslår vi ett originalramverk bestående av två moduler som arbetar gemensamt för att representera såväl global formdeformation som ytdetaljer med hög trohet. Globala formdeformationer återvinns från en subrymdsmodell som lärt sig av 3D-data från klädda människor i rörelse, medan högfrekventa detaljer läggs till normala kartor som skapats med hjälp av ett villkorligt Generativt Adversarial Network vars arkitektur är utformad för att upprätthålla realism och tidskonsistens. Detta leder till oöverträffad högkvalitativ rendering av kläder deformationssekvenser, där fina rynkor från (verklig) hög upplösning observationer kan återvinnas. Dessutom, eftersom modellen lär sig oberoende av kroppsform och pose, är ramen lämplig för applikationer som kräver retargeting (t.ex. body animation). Våra experiment visar originella resultat av hög kvalitet med en flexibel modell. Vi hävdar att ett helt datadrivet tillvägagångssätt för realistiska tygskrympning är möjligt.
REF tar en hybridmetod som kombinerar en statistisk modell för pose-baserad global deformation med ett villkorat generariellt nätverk för att lägga till detaljer på normala kartor för att producera finare rynkor.
51,967,305
DeepWrinkles: Accurate and Realistic Clothing Modeling
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
53
Patientgenom kan endast tolkas i samband med andra genom, men genomdelning möjliggör diskriminering. Tusentals monogena sjukdomar har gett definitiva genomiska diagnoser och potentiella genterapimål. Här visar vi hur man tillhandahåller sådana diagnoser samtidigt som deltagarnas integritet bevaras genom användning av säker multipartsberäkning. I flera verkliga scenarier (små patientkohorter, trioanalys, två-hospital samverkan) använde vi våra metoder för att identifiera orsaksvarianten och upptäcka tidigare oigenkännliga sjukdomsgener och varianter samtidigt som vi höll upp till 99,7% av alla deltagares känsligaste genomisk information privat.
Ett annat protokoll föreslogs för att ge genomiska diagnoser samtidigt bevara deltagare integritet REF.
206,658,219
Deriving genomic diagnoses without revealing patient genomes
{'venue': 'Science', 'journal': 'Science', 'mag_field_of_study': ['Medicine', 'Biology']}
54
Abstract-Nyligen, ett antal befintliga blockchain system har bevittnat stora buggar och sårbarheter inom smarta kontrakt. Även om litteraturen innehåller ett antal förslag för att säkra smarta kontrakt, fokuserar dessa förslag främst på att bevisa riktigheten eller avsaknaden av en viss typ av sårbarhet inom ett kontrakt, men kan inte skydda utplacerade (legacy) kontrakt från att utnyttjas. I detta dokument tar vi itu med detta problem i samband med återinträdesförsök och föreslår en ny smart kontraktssäkerhetsteknik, dubbad Sereum (Secure Ethereum), som skyddar befintliga, utplacerade kontrakt mot återinträdesattacker på ett bakåtkompatibelt sätt som bygger på övervakning och validering av run-time. Sereum varken kräver någon ändring eller någon semantisk kunskap om befintliga kontrakt. Genom att implementera och utvärdera med hjälp av Ethereum blockchain, visar vi att Sereum täcker det faktiska flödet av ett smart kontrakt för att korrekt upptäcka och förhindra attacker med en falsk positiv hastighet så liten som 0,06% och med försumbar drifttid overhead. Som en biprodukt utvecklar vi tre avancerade återinträdesattacker för att demonstrera begränsningarna i befintliga offline-sårbarhetsanalysverktyg.
Ett annat intressant exempel är Sereum Ref-arkitekturen, en härdad EMM som kan skydda utplacerade kontrakt mot återinträde attacker på ett bakåtkompatibelt sätt genom att utnyttja fläckspårning för att övervaka körtid beteende av smarta kontrakt.
55,701,989
Sereum: Protecting Existing Smart Contracts Against Re-Entrancy Attacks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
55
Abstrakt. Motiverad av problemet med att undvika dubbelarbete i lagringssystem, Bellare, Keelveedhi och Ristenpart har nyligen lagt fram begreppet Message-Locked Encryption (MLE) system som subsumerar konvergent kryptering och dess varianter. Sådana system är inte beroende av permanenta hemliga nycklar, utan kryptera meddelanden med hjälp av nycklar som härrör från meddelandena själva. Vi stärker de säkerhetsbegrepp som Bellare et al föreslår. Genom att ta hänsyn till klartextdistributioner som kan vara beroende av systemens offentliga parametrar. Vi hänvisar till sådana ingångar som låsberoende meddelanden. Vi konstruerar två system som uppfyller våra nya säkerhetsbegrepp för meddelandelåst kryptering med låsberoende meddelanden. Vår huvudkonstruktion avviker från Bellare et al. genom att undvika användning av komponenter i chiffertext som härletts deterministiskt från meddelandena. Vi utformar en helt randomiserad plan som stöder en algoritm för jämlikhetstestning definierad på chiffertexterna. Vår andra konstruktion har en deterministisk chiffertextkomponent som möjliggör effektivare jämlikhetstester. Säkerhet för låsberoende meddelanden håller fortfarande under beräkningsantaganden på meddelandedistributioner som produceras av angriparen. I båda våra system overhead i längden av chiffertext är endast additiv och oberoende av meddelandet längd.
Sedan Abadi m.fl. REF utformade ett slumpmässigt system för att undvika den chiffertext som härletts från meddelandet.
1,315,646
Message-locked encryption for lock-dependent messages
{'venue': 'In Advances in Cryptology–CRYPTO 2013', 'journal': None, 'mag_field_of_study': ['Computer Science']}
56
Virtuella människor måste vara övertygande för att främja beteendeförändringar hos mänskliga användare. Medan flera studier har fokuserat på att förstå de många aspekter som inluence graden av övertalning, de flesta av dem är begränsade till dyadiska interaktioner. I detta dokument presenterar vi en utvärderingsstudie som fokuserar på att förstå effekterna av flera agenser på användarens övertalningsförmåga. Tillsammans med kön och status (authorative & peer) tittar vi också på typ av fokus som används av agenten d.v.s., användarstyrd där agenten syftar till att övertyga genom att vända sig direkt till användaren och ta ansvar för var agenten syftar till att övertyga användaren, som är observatör, indirekt genom att engagera en annan agent i diskussionen. Deltagarna tilldelades slumpmässigt ett av de 12 villkoren och presenterades med ett övertygande budskap av en eller flera virtuella agenter. Ett frågeformulär användes för att mäta den upplevda interpersonella attityden, trovärdigheten och övertalningen. Resultaten visar att trovärdigheten på ett positivt sätt påverkar övertalningen. I allmänhet, flera agenter inställning, oavsett fokus, var mer övertygande än singel agent inställning. Även om deltagarna förespråkade användarstyrd inställning och rapporterade att den var övertygande och hade en ökad tillit till agenterna, var den faktiska förändringen i övertalningspoängen den mest effektiva för att framkalla beteendeförändring. Dessutom visade undersökningen också att auktoritativa agenter var de mest övertygande.
En tidig utvärderingsstudie REF genomfördes för att observera påverkan av kön, status (auktoritativ och jämlik) och fokusering anställd av agenten d.v.s. (i) användarstyrd: Övertalning genom att vända sig direkt till användaren, och (ii) surrogat: Övertyga användaren indirekt genom att engagera en annan agent i diskussionen.
53,244,506
Is Two Better than One?: Effects of Multiple Agents on User Persuasion
{'venue': "IVA '18", 'journal': None, 'mag_field_of_study': ['Computer Science']}
57
Abstract-Radio spektrum resurs är av grundläggande betydelse för trådlös kommunikation. De senaste rapporterna visar att det mesta tillgängliga spektrumet har fördelats. Medan vissa av spektrumbanden (t.ex. olicensierat band, GSM-band) har sett allt mer trång användning, är de flesta av de andra spektrumresurserna underutnyttjade. Detta driver uppkomsten av öppna spektrum och dynamiska spektrumaccesskoncept, som gör det möjligt för olicensierade användare utrustade med kognitiva radioapparater att opportunistiskt få tillgång till det spektrum som inte används av primära användare. Kognitiv radio har många avancerade funktioner, såsom agilt att känna förekomsten av primära användare och utnyttja flera spektrumband samtidigt. I praktiken begränsas dock sådana möjligheter av hårdvarukostnader. I detta dokument diskuterar vi hur man kan genomföra effektiv spektrumhantering i särskilda kognitiva radionät samtidigt som man tar hänsyn till hårdvarubegränsningar (t.ex. enkelradio, partiell spektrumavkänning och spektrumaggregationsgräns). Ett maskinvarubegränsat kognitivt MAC, HC-MAC, föreslås för att genomföra effektiva spektrumavkänning och spektrumaccess beslut. Vi identifierar frågan om optimal spektrumanalys för ett enda sekundärt överföringspar, och formulerar det som ett optimalt stoppproblem. Ett decentraliserat MAC-protokoll föreslås sedan för ad hoc kognitiva radionät. Simuleringsresultat presenteras för att visa effektiviteten i vårt föreslagna protokoll. Index Terms-kognitiv MAC, öppet spektrum, optimal spektrumanalys, spektrumaggregation.
I REF formuleras avvägningen mellan spektrumaccessmöjligheten och spektrumavkännande overhead i kognitiva radiosystem som ett ändligt horisontellt optimalt stoppproblem, som löses med bakåt induktion.
14,939,569
HC-MAC: A Hardware-Constrained Cognitive MAC for Efficient Spectrum Management
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
58
Figur 1: Två agenter i Gibson Environment för verklighetsuppfattning. Agenten är aktiv, förkroppsligad och föremål för begränsningar av fysik och rum (a,b). Den får en konstant ström av visuella observationer som om den hade en kamera ombord (c). Den kan också få ytterligare villkor, t.ex. Djup, semantiska etiketter eller normala (d,e,f). De visuella observationerna kommer från verkligheten snarare än från ett artificiellt utformat rum. Att utveckla visuella perceptionsmodeller för aktiva medel och sensorimotorisk styrning är besvärligt att göra i den fysiska världen, eftersom befintliga algoritmer är för långsamma för att effektivt kunna lära sig i realtid och robotar är ömtåliga och kostsamma. Detta har gett upphov till inlärning-i-simulation som följaktligen kastar en fråga om huruvida resultaten överförs till verkligheten. I detta dokument är vi bekymrade över problemet med att utveckla verklig uppfattning för aktiva agenter, föreslå Gibson Virtual Environment 1 för detta ändamål, och visa prov perceptuella uppgifter lärt sig där. Gibson bygger på att virtualisera verkliga utrymmen, snarare än att använda artificiellt utformade, och omfattar för närvarande över 1400 golvytor från 572 hela byggnader. Gibsons huvuddrag är att jag är från den verkliga världen och återspeglar dess semantiska komplexitet, II. ha en intern syntesmekanism, "Goggles", som gör det möjligt att distribuera de utbildade modellerna i verkligheten utan behov av domänanpassning, III. Embodiment av agenter och göra dem föremål för begränsningar av fysik och utrymme.
Gibson REF ) är en inlärningsmiljö där en agent förkroppsligas och utsätts för begränsningar av utrymme och fysik (med hjälp av Bullet fysik) och lekt i ett virtualiserat verkligt utrymme (kommer från verkliga datauppsättningar som Matterport eller Stanford 2D-3D).
49,358,881
Gibson Env: Real-World Perception for Embodied Agents
{'venue': 'CVPR 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']}
59
De sociala nätverken på nätet skapar nya källor för hälso- och sjukvårdsinformation, särskilt när det gäller läkemedel. Vi syftade till att undersöka effekten av ett givet OSN: s egenskaper på innehållet i läkemedelsdiskussioner från detta OSN. Vi jämförde effekten av fyra särskiljande egenskaper från tio olika OSNs på innehållet i deras läkemedelsdiskussioner: (1) Allmänt kontra hälsa OSN; (2) OSN måttlighet; (3) OSN registreringskrav; och (4) OSNs med en fråga och svar format. Effekterna av dessa egenskaper mättes både kvantitativt och kvalitativt. Våra resultat visar att ett OSN:s egenskaper verkligen påverkar innehållet i dess diskussioner. Baserat på deras informationsbehov kan vårdgivare använda våra resultat för att välja rätt OSN eller för att ge råd till patienter om deras behov. Våra resultat kan också vägleda skapandet av nya och mer effektiva domänspecifika hälso-OSNs. Vidare, framtida forskare av online-hälsovård innehåll i OSNs kan hitta våra resultat informativt när du väljer OSNs som datakällor. Vi rapporterade flera fynd om påverkan av OSN-karakteristika på innehållet i läkemedelsdiskussioner, och syntetiserade dessa fynd till användbara poster för både vårdgivare och framtida forskare av hälso- och sjukvårdsdiskussioner om OSN. Framtida forskning om effekterna av OSN-karakteristika kan omfatta användares demografi, informationens kvalitet och säkerhet samt effekten av användning av OSN.
REF undersökte egenskaperna hos tio olika sociala nätverkssajter online för att hitta effekterna av dessa egenskaper på diskussionerna om läkemedel bland användarna och DailyStrength var en av dessa webbplatser.
7,022,593
Pharmaceutical drugs chatter on Online Social Networks
{'venue': 'Journal of biomedical informatics', 'journal': 'Journal of biomedical informatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
60
Abstract Att utnyttja den fulla beräkningskraften hos nuvarande hierarkiska multiprocessormaskiner kräver en mycket noggrann fördelning av trådar och data mellan den underliggande icke-uniforma arkitekturen för att undvika straff för fjärrminnesåtkomst. Direktivbaserade programmeringsspråk, såsom OpenMP, kan i hög grad bidra till att utföra en sådan distribution genom att ge programmerare ett enkelt sätt att strukturera parallelliteten i sin tillämpning och överföra denna information till runtime-systemet. Vår körtid, som är baserad på en flernivås trådschemaläggare i kombination med en NUMA-medveten minneshanterare, omvandlar denna information till schemaläggningstips relaterade till problem med trådminnesaffinitet. Dessa tips möjliggör dynamisk lastfördelning styrd av applikationsstruktur och maskinvarutopologi, vilket bidrar till att uppnå prestandaportabilitet. Flera experiment visar att blandade lösningar (som migrerar både trådar och data) överträffar arbets-stjälande baserade balanseringsstrategier och nästa-touch-baserade datadistributionspolicyer. Dessa tekniker ger insikter om ytterligare optimeringar.
Broquedis m.fl. REF kombinerade NUMA-medveten minneshanterare med sitt körtidssystem för att möjliggöra dynamisk lastfördelning och utnyttja informationen från applikationens struktur och maskinvarutopologi.
10,528,126
ForestGOMP: An Efficient OpenMP Environment for NUMA Architectures
{'venue': 'International Journal of Parallel Programming', 'journal': 'International Journal of Parallel Programming', 'mag_field_of_study': ['Computer Science']}
61
Många naturliga språk bearbetning uppgifter enbart förlitar sig på glesa beroenden mellan några polletter i en mening. Mekanismer för mjuk uppmärksamhet visar lovande resultat när det gäller att modellera lokala/globala beroenden genom mjuka sannolikheter mellan två polletter, men de är inte effektiva och effektiva när de tillämpas på långa meningar. Däremot, hård uppmärksamhet mekanismer väljer direkt en del av polletter men är svåra och ineffektiva att träna på grund av deras kombinatoriska natur. I detta dokument integrerar vi både mjuk och hård uppmärksamhet i en sammanhangsbaserad fusionsmodell, "förstärkt självupptagenhet (ReSA)", till ömsesidig nytta för varandra. I ReSA trimmar en hård uppmärksamhet en sekvens för en mjuk självuppmärksamhet att bearbeta, medan den mjuka uppmärksamheten matar belöningssignaler tillbaka för att underlätta träning av den hårda. För detta ändamål utvecklar vi en ny hård uppmärksamhet kallad "förstärkt sekvensprovtagning (RSS)", som väljer polletter parallellt och tränas via policygradient. Med hjälp av två RSS-moduler extraherar ReSA effektivt de glesa beroendena mellan varje par valda tokens. Slutligen föreslår vi en RNN/CNN-fri meningskodningsmodell, "förstärkt självupptagna nätverk (ReSAN)", enbart baserad på ReSA. Det uppnår state-of-the-art prestanda på både Stanford Natural Language Inference (SNLI) och domar Involving Compositional Knowledge (SICK) dataset.
I Ref föreslogs ett förstärkt nätverk för självbetjäning (Resan), som integrerar både mjuk och hård uppmärksamhet i ett sammanhang med förstärkt lärande.
27,764,139
Reinforced Self-Attention Network: a Hybrid of Hard and Soft Attention for Sequence Modeling
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
62
Abstract-I detta arbete, föreslår vi en programmerbar Vector Memory Controller (PVMC), som ökar icke contiguous vektordata åtkomst genom att integrera deskriptorer av minne mönster, ett specialiserat lokalt minne, en minneshanterare i hårdvara, och flera DRAM-styrenheter. Vi implementerade och validerade det föreslagna systemet på en Altera DE4 FPGA styrelse. Vi jämför resultatet av vårt förslag med ett vektorsystem utan PVMC samt ett skalarbaserat system. Jämfört med ett vektorsystem vid baslinjen visar resultaten att PVMC-systemet överför datamängder upp till 2,2x till 14,9x snabbare, uppnår mellan 2,16x till 3,18x hastighetsökning för 5 applikationer och förbrukar 2,56 till 4,04 gånger mindre energi.
Hussain m.fl. föreslog en vektorarkitektur som kallas programmerbar vektorminneskontroll (PVMC) REF och dess genomförande på en Altera Stratix IV 230 FPGA-enhet.
15,805,857
PVMC: Programmable Vector Memory Controller
{'venue': '2014 IEEE 25th International Conference on Application-Specific Systems, Architectures and Processors', 'journal': '2014 IEEE 25th International Conference on Application-Specific Systems, Architectures and Processors', 'mag_field_of_study': ['Computer Science']}
63
Abstract-Monitoring nätverkstrafik och klassificering program är viktiga funktioner för nätverksadministratörer. I detta dokument överväger vi användningen av trafikspridningsdiagram (TDG) för att klassificera nätverkstrafik. Med tanke på en uppsättning flöden är ett GDG en graf med en kant mellan två IP-adresser som kommunicerar, vilket innebär att GDG fångar upp nätverksomfattande interaktioner. Med hjälp av TDG utvecklar vi en app-klassificeringsram kallad Graption (Graph-baserad klassificering). Vårt ramverk ger ett systematiskt sätt att utnyttja kraften i nätverksomfattande beteende, flödes-nivå egenskaper, och data mining tekniker. Som ett bevis på konceptet, vi omedelbart vårt ramverk för att upptäcka P2P-tillämpningar, och visa att det kan identifiera P2P-trafik med reträtt och precision större än 90% i ryggradsspår, som är särskilt utmanande för andra metoder.
REF utvecklade en grafbaserad ram för klassificering av P2P-trafik.
6,109,492
Graph-Based P2P Traffic Classification at the Internet Backbone
{'venue': 'IEEE INFOCOM Workshops 2009', 'journal': 'IEEE INFOCOM Workshops 2009', 'mag_field_of_study': ['Computer Science']}
64
Bakgrund: Sedan Swanson föreslog modellen Undiscovered Public Knowledge (UPK) har det funnits många metoder för att avslöja UPK genom att utvinna den biomedicinska litteraturen. Dessa tidigare arbeten krävde dock omfattande manuella ingrepp för att minska antalet möjliga anslutningar och tillämpas huvudsakligen på sjukdomseffektförhållandet. Med framsteg inom biomedicinsk vetenskap, har det blivit nödvändigt att extrahera och kombinera information från flera olika forskningar, studier och artiklar för att dra nya hypoteser och expandera kunskap. Metoder: Vi föreslår MKEM, en Multi-level Knowledge Emergence Model, för att upptäcka implicita relationer med hjälp av Natural Language Processing tekniker som Link Grammar och Ontologies såsom Unified Medical Language System (UMLS) MetaMap. Bidraget från MKEM är följande: För det första föreslår vi en flexibel kunskapsutvecklingsmodell för att extrahera implicita relationer över olika nivåer såsom molekylär nivå för gen och protein och fenomisk nivå för sjukdom och behandling. För det andra använder vi MetaMap för att märka biologiska begrepp. För det tredje ger vi ett empiriskt och systematiskt förhållningssätt för att upptäcka nya relationer. Resultat: Vi tillämpade vårt system på 5000 abstracts hämtade från PubMed databas. Vi utförde prestandautvärderingen som en guldstandard ännu inte tillgänglig. Vårt system utfördes med en bra precision och minns och vi genererade 24 hypoteser. Slutsatser: Våra experiment visar att MKEM är ett kraftfullt verktyg för att upptäcka dolda relationer bosatta i extraherade enheter som representerades av vår Substance-Effect-Process-Dase-Body Part (SEPDB) modell.
Ijaz, Song och Lee REF föreslog MKE-modellen (Multi-level Knowledge Emergence).
9,720,218
MKEM: a Multi-level Knowledge Emergence Model for mining undiscovered public knowledge
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
65
Abstract-Human ansikte upptäckt och spårning är ett viktigt forskningsområde med bred tillämpning i människa maskin gränssnitt, innehållsbaserad bildsökning, videokodning, gestigenkänning, crowd övervakning och ansiktsigenkänning. Mänsklig ansiktsdetektering är oerhört viktig och samtidigt ett svårt problem i datorseendet, främst på grund av dynamiken och den höga variationen i huvudet. Ett stort antal effektiva algoritmer har föreslagits för ansiktsdetektering i gråskalabilder som sträcker sig från enkla kantbaserade metoder till kompositmetoder på hög nivå med moderna och avancerade mönsterigenkänningsmetoder. Syftet med tidningen är att jämföra Gradient vektorflöde och silhuetter, två av de mest använda algoritmer inom området ansiktsdetektering. Båda algoritmerna användes på en gemensam databas och resultaten jämfördes. Detta är det första papper som utvärderar runtime analys av Gradient vektor fält metodologi och jämför med silhuetter segmentering teknik. I dokumentet förklaras också de faktorer som påverkar både algoritmernas prestanda och fel. Slutligen förklaras resultaten som bevisar siluettsegmenteringsmetodens överlägsenhet jämfört med Gradient vektorflödesmetoden. Index Terms-Face detektion, gradient vektorflöde (GVF), aktivt konturflöde, silhoutte.
Shivesh Bajpai, etc. al., REF diskuterade gradientvektorflödet och silhuettalgoritmer.
56,205,479
An Experimental Comparison of Face Detection Algorithms
{'venue': None, 'journal': 'International Journal of Computer Theory and Engineering', 'mag_field_of_study': ['Computer Science']}
66
Robust och korrekt visuell spårning är ett av de mest utmanande datorseende problemen. På grund av den inneboende bristen på träningsdata är en robust strategi för att konstruera en modell för målutseende av avgörande betydelse. Nyligen har discriminativt inlärda korrelationsfilter (DCF) framgångsrikt tillämpats för att ta itu med detta problem för spårning. Dessa metoder använder ett periodiskt antagande av träningsprover för att effektivt lära sig en klassificering på alla fläckar i målområdet. Det periodiska antagandet innebär dock också oönskade gränseffekter, som allvarligt försämrar kvaliteten på spårningsmodellen. Vi föreslår rumsligt regulariserade diskriminativa korrelationsfilter (SRDCF) för spårning. En rumslig regulariseringskomponent introduceras i inlärningen för att bestraffa korrelationsfilterkoefficienter beroende på deras rumsliga läge. Vår SRDCF formulering gör det möjligt att lära sig korrelationsfiltren på en betydligt större uppsättning negativa träningsprover, utan att förstöra de positiva proverna. Vi föreslår vidare en optimeringsstrategi, baserad på den iterativa Gauss-Seidel-metoden, för effektiv online-inlärning av vår SRDCF. Experiment utförs på fyra referensdataset: OTB-2013, ALOV++, OTB-2015 Vårt arbetssätt uppnår toppmoderna resultat på alla fyra dataseten. På OTB-2013 och OTB-2015 får vi en absolut vinst på 8,0% respektive 8,2%, i genomsnitt överlappning precision, jämfört med de bästa befintliga spårare.
Spatially Regularized Discriminative Correlation Filter (SRDCF) REF använder rumslig regularisering genom att införa en rumslig regularisering komponent, som kan bestraffa korrelationsfiltret koefficienter under lärande och leda till att inte bara lindra oönskade gränseffekter utan också tillåta CF att lära sig i större regioner.
206,770,621
Learning Spatially Regularized Correlation Filters for Visual Tracking
{'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
67
Vi introducerar värde iteration nätverk (VIN): en helt differentiable neural nätverk med en "planering modul" inbäddad i. VIN kan lära sig att planera och är lämpliga för att förutsäga resultat som innefattar planeringsbaserade resonemang, såsom policyer för att stärka lärandet. Nyckeln till vårt tillvägagångssätt är en ny differentierad approximation av värde-iteringsalgoritm, som kan representeras som ett konvolutionellt neuralt nätverk, och utbildad end-to-end med hjälp av standard backpropagation. Vi utvärderar VIN-baserade policyer på diskreta och kontinuerliga sökvägar och på en naturligt språkbaserad sökuppgift. Vi visar att genom att lära sig en explicit planeringsberäkning, VIN politik generaliserar bättre till nya, osynliga domäner.
iteration algoritm infördes som är kapabel att förutsäga resultat som innebär planering-baserat resonemang REF.
11,374,605
Value Iteration Networks
{'venue': 'Advances in Neural Information Processing Systems 29 pages 2154--2162, 2016', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
68

Dataset Card for Swedish Citesum Dataset

The Swedish citesum dataset has only been machine-translated to improve downstream fine-tuning on Swedish summarization tasks.

Dataset Summary

Read about the full details at original English version: https://huggingface.co/datasets/citesum

Paper

https://arxiv.org/abs/2205.06207

Authors

Yuning Mao, Ming Zhong, Jiawei Han University of Illinois Urbana-Champaign {yuningm2, mingz5, hanj}@illinois.edu

Data details

  • src (string): source text. long description of paper
  • tgt (string): target text. tldr of paper
  • paper_id (string): unique id for the paper
  • title (string): title of the paper
  • discipline (dict):
    • venue (string): Where the paper was published (conference)
    • journal (string): Journal in which the paper was published
    • mag_field_of_study (list[str]): scientific fields that the paper falls under.

Data Splits

The Swedish xsum dataset follows the same splits as the original English version and has 3 splits: train, validation, and test.

Dataset Split Number of Instances in Split
Train 83,304
Validation 4,721
Test 4,921
Downloads last month
143
Edit dataset card

Models trained or fine-tuned on Gabriel/citesum_swe