REPORTS

 
 

Cite as: Andics et al., Science 

10.1126/science.aaf3777 (2016).  

 

Various species rely on similar acoustic cues from vocaliza-

tions to infer inner states (1,  2). Human vocal comprehen-
sion also uses association of arbitrary sound sequences with 
meaning. Lexical items (words) are the basic building blocks 
of human languages but are hardly ever found in nonhuman 
vocal communicative systems, even though several species 
are capable of learning and discriminating arbitrary sound 
sequences (3,  4), associating vocalizations with specific 
meanings (45), or producing human-like lexical items after 
extensive training (6). 

Lexical processing in humans is lateralized to the left 

hemisphere (LH) of the brain (7). According to acoustic the-
ories, this is caused by LH bias for rapidly changing signals 
(8), which is not unique to humans (9). In contrast, func-
tional theories assume LH bias for lexical representations of 
meaning, independent of acoustics (10). Nonhuman neural 
evidence for lexical processing is scarce. LH bias for broadly 
defined meaningfulness has been found for processing fa-
miliar, conspecific sounds (1113). The comparison of hu-
man and nonhuman neural mechanisms for processing 
spoken words may reveal how speech-related hemispheric 
asymmetries and lexical representations emerged during 
evolution. 

Dogs present an ideal model for such investigations. 

Domestication has increased dogs’ abilities to engage in 
acoustic communication with humans (14), they are more 
receptive than wolves to human vocal signals (15), and their 
behavior is more easily brought under human vocal control 
(1617). Dogs can recognize (up to ~1000) words as discrim-
inative stimuli to retrieve different objects (18),  and they 
process acoustic cues from human and dog vocalizations in 
overlapping auditory brain regions (19). A recent behavioral 
study found orienting asymmetries in dogs that listened to 
artificially manipulated spoken commands, providing indi-

rect evidence of LH bias when the salience of meaningful 
phonemic cues increased and RH bias when the salience of 
intonational or speaker-related vocal cues increased (20). 

We applied functional magnetic resonance imaging to 

disentangle lexical versus intonational processing in awake 
dogs (19) (fig. S1). Verbal praises were used as stimuli be-
cause (i) human languages signal praise both lexically (“Well 
done!”) and intonationally [higher pitch and pitch range, 
specific pitch contour (21)]; (ii) verbal praises are often used 
in dog-directed speech as social rewards; and (iii) neural 
evidence on reward processing mechanisms is well estab-
lished (2223). Primary reward regions (the mesolimbic do-
pamine system), consisting of the ventral striatum (VS) and 
dopamine neurons of the ventral tegmental area and sub-
stantia nigra (VTA-SN) (24,  25), consistently respond more 
strongly to reward than to nonreward signals in humans, 
and this is also the case in dogs (26). 

We manipulated lexical information (marked, praise 

word; unmarked, neutral word) and intonation (marked, 
praising tone; unmarked, neutral tone) separately. Experi-
mental conditions involved every combination of word type 
and intonation (Fig. 1A): praise words in praising intonation 
(Pp), praise words in neutral intonation (Pn), neutral words 
in praising intonation (Np), and neutral words in neutral 
intonation (Nn). For praise words, we selected Hungarian 
expressions used by all test dog owners for praising. For 
neutral words, we used Hungarian conjunction words of 
similar frequency. Typically, praise but not neutral words 
are spoken with praising intonation, and only Pp is used to 
address dogs. We assumed that Pp is meaningful to dogs 
whereas Nn is not, and that praise words thus contain lexi-
cal cues but neutral words do not. 

We hypothesized that if dogs maintain lexical represen-

tations, neural reward responses would depend on both lex-

Neural mechanisms for lexical processing in dogs 

A. Andics,

1,2,3

* A. Gábor,

2

 M. Gácsi,

1

 T. Faragó,

1

 D. Szabó,

1,2

 Á. Miklósi

1,2

 

1

MTA-ELTE Comparative Ethology Research Group, Eötvös Loránd University, H-1117 Budapest, Pázmány Péter sétány 1/C, Hungary. 

2

Department of Ethology, Eötvös 

Loránd University, H-1117 Budapest, Pázmány Péter sétány 1/C, Hungary. 

3

MR Research Centre, Semmelweis University, H-1083 Budapest, Balassa u. 6, Hungary. 

*Corresponding author. Email: attila.andics@gmail.com 

During speech processing, human listeners can separately analyze lexical and intonational cues to arrive 

at a unified representation of communicative content. The evolution of this capacity can be best 

investigated by comparative studies. Using functional magnetic resonance imaging, we explored whether 

and how dog brains segregate and integrate lexical and intonational information. We found a left-

hemisphere bias for processing meaningful words, independently of intonation; a right auditory brain 

region for distinguishing intonationally marked and unmarked words; and increased activity in primary 

reward regions only when both lexical and intonational information were consistent with praise. Neural 

mechanisms to separately analyze and integrate word meaning and intonation in dogs suggest that this 

capacity can evolve in the absence of language. 

First release: 30 August 2016  

 

www.sciencemag.org

 

 (Page numbers not final at time of first release)  1 

 

 

 

 on August 30, 2016

http://science.sciencemag.org/

Downloaded from 

ical and intonational information. In contrast, if dogs do not 
segregate lexical information from intonation, neural re-
ward responses would be modulated only by intonational 
cues. LH bias for lexical processing would be consistent with 
functional theories, no lateralization for lexical cues and RH 
bias for intonational cues would support the acoustic ac-
count, and LH bias for Pp (and perhaps Nn) relative to Pn 
and Np would argue for a role of familiarity. 

Vocal stimuli from the dogs’ female trainer were record-

ed. We used this single individual’s voice, which was simi-
larly well known to every dog, because speaker familiarity 
affects dogs’ reactions to verbal utterances (27). Stimuli with 
praising intonation had a higher and more varying pitch, 
but no systematic acoustic differences were found between 
praise and neutral words (Fig. 1B). Non-Hungarian listeners 
scored intonationally but not lexically marked stimuli as 
more praising (28). 

To assess overall lateralization, we used a bootstrapping 

approach with multiple cutoff thresholds (29) (Fig. 1C and 
table S1). Cortical responses for lexically marked (Pp and 
Pn) but not unmarked (Np and Nn) words were  LH-
lateralized. LH bias for lexically marked words was persis-
tent across thresholds. There were no intonational or lexi-
cal-intonational effects. In a previous study (19), we found 
no lateralization bias for nonspeech human sounds. These 
findings support the functional account (1020) and suggest 
that dog brains maintain intonation-independent lexical 
representations of meaning. Lateralization for Pp could also 
be related to its higher frequency in dog-directed speech, 
but Pn, though rare, elicits a similar LH bias, making a fa-
miliarity-based account improbable. 

To investigate regional effects, we performed random-

effects tests, focusing on two sets of brain areas: (i) auditory 
regions responsive to speech (Fig. 1D and table S2), localized 
functionally, and (ii) primary reward regions, VS and VTA-
SN (24,  25), defined anatomically (30). We tested for sepa-
rate effects of lexical (Pp + Pn versus Np + Nn) and intona-
tional (Pp + Np versus Pn + Nn) processing and for 
combined effects of lexical-intonational processing in three 
ways: an interaction test [(Pp versus Pn) versus (Np versus 
Nn)], a simple contrast or “integration” test (Pp versus Pn + 
Np + Nn), and a conjunction test [(Pp versus Pn)

∩(Pp versus 

Np)]. 

Within auditory regions, we found intonation effects but 

no lexical or lexical-intonational effects. Intonation effects 
were only evident in the right middle ectosylvian gyrus (R 
mESG), with stronger responses for words with neutral in-
tonation, independent of word meaning (Fig. 1E and table 
S3). We then modeled acoustic variation across stimuli, us-
ing parametric modulators. We found that R mESG activity 
negatively covaried with fundamental frequency (F0), paral-
leling findings of higher sensitivity to lower pitch in the 

near-primary auditory cortex in humans (31), macaques 
(32), and dogs (19). There was no intonation or F0 effect in 
the left homolog region (L mESG) but also no significant 
hemispheric bias (228). Unlike in human studies, we found 
no effect of F0 change (33) (table S3). In whole-brain condi-
tion-dependent functional connectivity analyses with audi-
tory subregions as seeds, an intonation effect (stronger 
correlation for praising intonation) was only found between 
the R mESG (as the seed) and R caudate nucleus (CN; Fig. 
1F and table S4). Connectivity  results suggest a human-
analog functional link between auditory and reward regions 
for processing praising intonation (34). The R mESG in dogs 
is thus involved in processing acoustic cues that are relevant 
for emotional intonation in both speech and nonspeech 
human and dog vocalizations (19). Analogously, emotional 
intonation processing in humans involves mechanisms that 
are not specific to speech (3537). 

In primary reward regions, we found combined lexical-

intonational effects but no separate lexical or intonational 
effects. Pp elicited stronger neural responses than any other 
condition in the dopamine nuclei of the VTA-SN and in the 
CN (within the VS) (Fig. 2A and table S3). Dog reward re-
gions thus respond most strongly to verbal praises when 
both lexical and intonational information fit. To further il-
lustrate these findings, we calculated the maximal response 
for each voxel within the reward masks: Pp had the highest 
percentages in both the VS (Pp, Pn, Np, and Nn: 71.3, 6.2, 
8.6, and 13.9%) and the VTA-SN (96.0, 0.0, 0.0, and 4.0%) 
(Fig. 2B). Similarly to humans, dogs appear to integrate lexi-
cal and intonational cues in speech to evaluate meaning in 
nonauditory brain regions (38). 

We discovered three neural mechanisms of speech pro-

cessing in dogs. First, there was a LH bias for processing 
meaningful words, independently of intonation. Second, 
acoustic cues of affective speech intonation were processed 
independently of word meaning in R mESG, and intona-
tional markedness increased functional connectivity be-
tween auditory and caudate regions. Third, dogs relied on 
both word meaning and intonation when processing the 
reward value of verbal utterances. All three findings reveal 
functional analogies between dog and human brain mecha-
nisms (27193438). We suggest that in a suitable ontoge-
netic environment, lexical representations can arise and be 
separated from acoustics, even in a nonprimate mammal. In 
dogs,  specific selective forces during domestication could 
have also supported interspecific communicative and learn-
ing skills (17), but rapid evolution of speech-related hemi-
spheric asymmetries is unlikely (39). Lateralized lexical 
processing does not appear to be a uniquely human capacity 
that follows from the emergence of language, but rather a 
more ancient function that can be exploited to link arbitrary 
sound sequences to meanings. What makes lexical items 

First release: 30 August 2016 

 

www.sciencemag.org

   (Page numbers not final at time of first release)  2 

 

 on August 30, 2016

http://science.sciencemag.org/

Downloaded from 

uniquely human is thus not the neural capacity to process 
them, but the invention of using them. 

REFERENCES AND NOTES 

References and Notes 
1. E. F. Briefer, Vocal expression of emotions in mammals: Mechanisms of production 

and evidence. J. Zool. 288, 1–20 (2012)

doi:10.1111/j.1469-7998.2012.00920.x

 

2. S. Frühholz, W. Trost, S. A. Kotz, The sound of emotions—Towards a unifying 

neural network perspective of affective sound processing. Neurosci. Biobehav. 
Rev.
 68, 96–110 (2016).

 Medline

 

doi:10.1016/j.neubiorev.2016.05.002

 

3. M. J. Yip, The search for phonology in other species. Trends Cogn. Sci. 10, 442–

446 (2006).

 Medline

 

doi:10.1016/j.tics.2006.08.001

 

4. K. Collier, B. Bickel, C. P. van Schaik, M. B. Manser, S. W. Townsend, Language 

evolution: Syntax before phonology? Proc. R. Soc. B Biol. Sci.  281, 20140263 
(2014).  

5. R. M. Seyfarth, D. L. Cheney, P. Marler, Monkey responses to three different alarm 

calls: Evidence of predator classification and semantic communication. Science 
210, 801–803 (1980).

 Medline

 

doi:10.1126/science.7433999

 

6. I. M. Pepperberg, H. R. Shive, Simultaneous development of vocal and physical 

object combinations by a grey parrot (Psittacus erithacus): Bottle caps, lids, and 
labels.  J. Comp. Psychol.  115, 376–384 (2001).

  Medline

 

doi:10.1037/0735-

7036.115.4.376

 

7. J. R. Binder, R. H. Desai, W. W. Graves, L. L. Conant, Where is the semantic 

system? A critical review and meta-analysis of 120 functional neuroimaging 
studies. 

Cereb. Cortex 

19, 2767–2796 (2009). 

Medline

 

doi:10.1093/cercor/bhp055

 

8. D. Poeppel, The analysis of speech in different temporal integration windows: 

Cerebral lateralization as “asymmetric sampling in time”. Speech Commun. 41, 
245–255 (2003)

doi:10.1016/S0167-6393(02)00107-3

 

9. W. Wetzel, F. W. Ohl, H. Scheich, Global versus local processing of frequency-

modulated tones in gerbils: An animal model of lateralized auditory cortex 
functions.  Proc. Natl. Acad. Sci. U.S.A.  105, 6753–6758 (2008).

  Medline

 

doi:10.1073/pnas.0707844105

 

10. Y. Shtyrov, E. Pihko, F. Pulvermüller, Determinants of dominance: Is language 

laterality explained by physical or linguistic features of speech? Neuroimage 27, 
37–47 (2005).

 Medline

 

doi:10.1016/j.neuroimage.2005.02.003

 

11. A. Poremba, M. Malloy, R. C. Saunders, R. E. Carson, P. Herscovitch, M. Mishkin, 

Species-specific calls evoke asymmetric activity in the monkey’s temporal poles. 
Nature 427, 448–451 (2004).

 Medline

 

doi:10.1038/nature02268

 

12. G. Ehret, Left hemisphere advantage in the mouse brain for recognizing 

ultrasonic communication calls. Nature  325, 249–251  (1987). 

Medline

 

doi:10.1038/325249a0

 

13. H. U. Voss, K. Tabelow, J. Polzehl, O. Tchernichovski, K. K. Maul, D. Salgado-

Commissariat, D. Ballon, S. A. Helekar, Functional MRI of the zebra finch brain 
during song stimulation suggests a lateralized response topography. Proc. Natl. 
Acad. Sci. U.S.A.
 

104, 10667–10672 (2007). 

Medline

 

doi:10.1073/pnas.0611515104

 

14. P. Pongrácz, C. Molnár, A. Miklósi, Barking in family dogs: An  ethological 

approach. Vet. J. 183, 141–147 (2010).

 Medline

 

doi:10.1016/j.tvjl.2008.12.010

 

15. J. M. Gibson, S. A. Scavelli, C. J. Udell, M. A. R. Udell, Domestic dogs (Canis lupus 

familiaris) are sensitive to the “human” qualities of vocal commands. Anim. 
Behav. Cogn.
 1, 281–295 (2014)

doi:10.12966/abc.08.05.2014

 

16. Á. Miklósi, J. Topál, V. Csányi, Comparative social cognition: What can dogs teach 

us? Anim. Behav. 67, 995–1004 (2004)

doi:10.1016/j.anbehav.2003.10.008

 

17. J. Topál, G. Gergely, A. Erdőhegyi, G. Csibra, A. Miklósi, Differential sensitivity to 

human communication in dogs, wolves, and human infants. Science 325, 1269–
1272 (2009).

 Medline

 

doi:10.1126/science.1176960

 

18. J. Kaminski, J. Call, J. Fischer, Word learning in a domestic dog: Evidence for “fast 

mapping”. 

Science 

304, 

1682–1683 (2004). 

Medline

 

doi:10.1126/science.1097859

 

19. A. Andics, M. Gácsi, T. Faragó, A. Kis, A. Miklósi, Voice-sensitive regions in the 

dog and human brain are revealed by comparative fMRI. Curr. Biol. 24, 574–578 
(2014).

 Medline

 

doi:10.1016/j.cub.2014.01.058

 

20. V. F. Ratcliffe, D. Reby, Orienting asymmetries in dogs’ responses to different 

communicatory components of human speech. Curr. Biol.  24, 2908–2912 

(2014).

 Medline

 

doi:10.1016/j.cub.2014.10.030

 

21. A. Fernald, Intonation and communicative intent in mothers’ speech to infants: Is 

the melody the message? Child Dev.  60, 1497–1510 (1989).

  Medline

 

doi:10.2307/1130938

 

22. W. Schultz, P. Dayan, P. R. Montague, A neural substrate of prediction and 

reward. 

Science 

275, 1593–1599 (1997). 

Medline

 

doi:10.1126/science.275.5306.1593

 

23. J. P. O’Doherty, Reward representations and reward-related learning in the 

human brain: Insights from neuroimaging.  Curr. Opin. Neurobiol.  14, 769–776 
(2004).

 Medline

 

doi:10.1016/j.conb.2004.10.016

 

24. S. N. Haber, B. Knutson, The reward circuit: Linking primate anatomy and human 

imaging. 

Neuropsychopharmacology 

35, 4–26 (2010). 

Medline

 

doi:10.1038/npp.2009.129

 

25. S. J. Russo, E. J. Nestler, The brain reward circuitry in mood disorders. Nat. Rev. 

Neurosci. 14, 609–625 (2013).

 Medline

 

doi:10.1038/nrn3381

 

26. G. S. Berns, A. Brooks, M. Spivak, Replicability and heterogeneity of awake 

unrestrained canine FMRI responses. PLOS ONE  8, e81698 (2013).

  Medline

 

doi:10.1371/journal.pone.0081698

 

27. A. Kerepesi, A. Dóka, Á. Miklósi, Dogs and their human companions: The effect of 

familiarity on dog-human interactions. Behav. Processes  110, 27–36 (2015).

 

Medline

 

doi:10.1016/j.beproc.2014.02.005

 

28. Materials and methods are available as supplementary materials on Science 

Online. 

29. M. Wilke, V. J. Schmithorst, A combined bootstrap/histogram analysis approach 

for computing a lateralization index from neuroimaging data. Neuroimage  33, 
522–530 (2006).

 Medline

 

doi:10.1016/j.neuroimage.2006.07.010

 

30. H. E. Evans, A. de Lahunta, Miller’s Anatomy of the Dog (Saunders-Elsevier, ed. 4, 

2013). 

31. S. Norman-Haignere, N. Kanwisher, J. H. McDermott, Cortical pitch regions in 

humans respond primarily to resolved harmonics and are located in specific 
tonotopic regions of anterior auditory cortex.  J. Neurosci.  33, 19451–19469 
(2013).

 Medline

 

doi:10.1523/JNEUROSCI.2880-13.2013

 

32. D. Bendor, X. Wang, The neuronal representation of pitch in primate auditory 

cortex. Nature 436, 1161–1165 (2005).

 Medline

 

doi:10.1038/nature03867

 

33. D. Wildgruber, H. Ackermann, B. Kreifelts, T. Ethofer, Cerebral processing of 

linguistic and emotional prosody: fMRI studies. Prog. Brain Res.  156, 249–268 
(2006).

 Medline

 

doi:10.1016/S0079-6123(06)56013-3

 

34. V. N. Salimpoor, I. van den Bosch, N. Kovacevic, A. R. McIntosh, A. Dagher, R. J. 

Zatorre, Interactions between the nucleus accumbens and auditory cortices 
predict music reward value. Science  340, 216–219 (2013).

  Medline

 

doi:10.1126/science.1231059

 

35. D. A. Sauter, F. Eisner, P. Ekman, S. K. Scott, Cross-cultural recognition of basic 

emotions through nonverbal emotional vocalizations.  Proc. Natl. Acad. Sci. 
U.S.A.
 107, 2408–2412 (2010).

 Medline

 

doi:10.1073/pnas.0908239106

 

36. T. Faragó, A. Andics, V. Devecseri, A. Kis, M. Gácsi, A. Miklósi, Humans rely on the 

same rules to assess emotional valence and intensity in conspecific and dog 
vocalizations. 

Biol. Lett. 

10, 20130926 (2014). 

Medline

 

doi:10.1098/rsbl.2013.0926

 

37. P. Belin, S. Fecteau, I. Charest, N. Nicastro, M. D. Hauser, J. L. Armony, Human 

cerebral response to animal affective vocalizations. Proc. R. Soc. B Biol. Sci. 275, 
473–481 (2008).  

38. S. A. Kotz, S. Paulmann, Emotion, language, and the brain. Lang. Linguist. 

Compass 5, 108–125 (2011)

doi:10.1111/j.1749-818X.2010.00267.x

 

39. M. C. Corballis, Left brain, right brain: Facts and fantasies. PLOS Biol.  12, 

e1001767 (2014).

 Medline

 

doi:10.1371/journal.pbio.1001767

 

40. M. Kleiner, D. Brainard, D. Pelli, A. Ingling, What’s new in Psychtoolbox-3. 

Perception 36, 1–16 (2007). 

41. K. J. Friston, J. T. Ashburner, S. J. Kiebel, T. E. Nichols, W. D. Penny, Statistical 

Parametric Mapping: The Analysis of Functional Brain Images (Elsevier, 2007). 

42. M. Wilke, K. Lidzba, LI-tool: A new toolbox to assess lateralization in functional 

MR-data.  J. Neurosci. Methods  163, 128–136 (2007). 

Medline

 

doi:10.1016/j.jneumeth.2007.01.026

 

43. S. Whitfield-Gabrieli, A. Nieto-Castanon, Conn: A functional connectivity toolbox 

for correlated and anticorrelated brain networks. Brain Connect.  2, 125–141 
(2012).

 Medline

 

doi:10.1089/brain.2012.0073

 

First release: 30 August 2016 

 

www.sciencemag.org

   (Page numbers not final at time of first release)  3 

 

 on August 30, 2016

http://science.sciencemag.org/

Downloaded from 

ACKNOWLEDGMENTS 

The study was supported by the Hungarian Academy of Sciences [Bolyai Scholarship 

to A.A. and a grant to the MTA-ELTE Comparative Ethology Research Group 
(F01/031)], the Hungarian Scientific Research Fund (OTKA; grants K100695, 
K115862, and PD116181), and the Stanton Foundation (Next Generation Canine 
Research Grant to T.F.). We thank F. Szalay for anatomy advice, and we thank all 
dog owners. Data are stored at Figshare 
(

http://dx.doi.org/10.6084/m9.figshare.3436538

). 

SUPPLEMENTARY MATERIALS 

www.sciencemag.org/cgi/content/full/science.aaf3777/DC1 
Materials and Methods 
Fig. S1 
Tables S1 to S4 
References (4043
 
1 February 2016; accepted 28 July 2016 
Published online 30 August 2016 
10.1126/science.aaf3777 

 

First release: 30 August 2016 

 

www.sciencemag.org

   (Page numbers not final at time of first release)  4 

 

 on August 30, 2016

http://science.sciencemag.org/

Downloaded from 

 

 

 

Fig. 1. Distinct neural patterns for lexical and intonation processing in dog brains.  (A) Experimental 
conditions. (B) Acoustic variation of stimuli. (C) Hemispheric lateralization test. Lateralization indices (LI) 
are shown across thresholds (connecting lines) and overall (horizontal bars). Positive values, left 
hemisphere. (D) Dog auditory regions responsive to speech (table S2). The color bar shows the range for 
one-sample t-test scores (12 degrees of freedom) for the speech (Pp + Pn + Np + Nn) > silence contrast. 
(E) Random-effects tests in auditory regions. (F) Functional connectivity tests. Random-effects test 
results are superimposed on an axial (z) slice [whole-brain familywise error (FWE)–corrected < 0.05]; 
table S4]. N = 13; ***P < 0.001; **P < 0.01; *P < 0.05; error bars, SEM. 

 

First release: 30 August 2016 

 

www.sciencemag.org

   (Page numbers not final at time of first release)  5 

 

 on August 30, 2016

http://science.sciencemag.org/

Downloaded from 

  

Fig. 2. Integration of lexical and intonational cues of praising in primary reward regions of dog 
brains. (A) Parameter estimates for the two activated brain areas from the integration test (small-volume 
FWE-corrected < 0.05; table S3). Follow-up paired t tests, *P < 0.05. Error bars, SEM. (B) VS and VTA-
SN masks overlaid on sagittal (x),  coronal (y), and axial (z) slices, with voxels color-coded to indicate 
which condition elicited the maximal response.  

 

First release: 30 August 2016 

 

www.sciencemag.org

   (Page numbers not final at time of first release)  6 

 

 on August 30, 2016

http://science.sciencemag.org/

Downloaded from 

published online August 30, 2016

(August 30, 2016) 

A. Andics, A. Gábor, M. Gácsi, T. Faragó, D. Szabó and Á. Miklósi

Neural mechanisms for lexical processing in dogs

 

Editor's Summary

 

 

 

This copy is for your personal, non-commercial use only. 

Article Tools

http://science.sciencemag.org/content/early/2016/08/26/science.aaf3777

tools: 

Visit the online version of this article to access the personalization and article

Permissions

http://www.sciencemag.org/about/permissions.dtl

Obtain information about reproducing this article: 

 is a registered trademark of AAAS. 

Science

all rights reserved. The title 

Washington, DC 20005. Copyright 2016 by the American Association for the Advancement of Science;

December, by the American Association for the Advancement of Science, 1200 New York Avenue NW, 

(print ISSN 0036-8075; online ISSN 1095-9203) is published weekly, except the last week in

Science 

 on August 30, 2016

http://science.sciencemag.org/

Downloaded from