Tuesday 29 August 2017

Ehud Friedgut Weizmann Forex


Caça para Sharp Thresholds Ehud Friedgut Hebrew University. 3 Propriedades locais Uma propriedade de gráfico será chamada local se for a propriedade de conter um subgrafo de uma lista finita de gráficos finitos. (Por exemplo, contendo um triângulo ou um ciclo de comprimento 17.) 4 Teorema: se uma propriedade de gráfico monotone tiver um limite grosseiro, então é local. Não-aproximável por uma propriedade local. Quase - 7 Aplicações Conectividade Ligações perfeitas em gráficos 3-SAT Assuma, por contradição, a grosseria. Hipergramas 8 Generalização para hipergrafias assinadas Use o Teorema de Bourgains. Ou, conforme verificado por Hatami e Molloy: Substituir G (n, p) por F (n, p), uma fórmula aleatória 3-sat, M por uma fórmula de tamanho fixo, etc. (A prova do critério original para a grosseria vai Através de.) 10 Conjuntos restritos de variáveis ​​Vamos dizer que um quintuplo de variáveis ​​é restritivo se forçá-las a verdadeiras rendas F insatisfeitas. Nossos pressupostos implicam que pelo menos uma (1 -) - proporção dos quintuplos são restritivas. 11 Erds-Stone-Simonovits O hipergrafo de quintuplos restritivos é super saturado. Existe uma constante tal que, se alguém escolher 5 trigêmeos, eles formam um sistema completo de quintuplícios restritivos de 5 partes com probabilidade pelo menos. Colocação de cláusulas da forma (x 1 V x 2 V x 3) em todas as 5 objectivas triplas em tal sistema torna F insatisfatável 12 Punchline Adicionando 5 cláusulas para F tornam insatisfatável com probabilidade pelo menos 2, então adicionando n 3 p cláusulas faz isso Whp E não com probabilidade inferior a 1-2. Contradição 14 Regras do artigo: Se não parecer local - então não é. Afiado brusco. Não há oscilações não-convergentes. 15 Uma amostra semi-aleatória de problemas abertos: Choose (número de coloração da lista) Propriedades de Ramsey de conjuntos aleatórios de inteiros Grupo de homotopia de desaparecimento de um complexo simplicial bidimensional aleatório. 16 Um problema aberto mais teórico: F: As propriedades simétricas com um limite grosseiro têm alta correlação com as propriedades locais. Bourgain: propriedades gerais com um limite grosseiro têm correlação positiva com as propriedades locais. E quanto à generalização comum Provavelmente verdade. Obtive meu doutorado na Universidade de Toronto em 2013, sob a supervisão de Toni Pitassi. Durante o outono de 2013, participei do semestre especial em análises reais em informática no instituto Simons, Berkeley. Inverno de 2014 até o verão de 2015 Passei no IAS em Princeton. Fui no Technion desde o outono de 2015, onde mantenho uma página inicial pública. Posso ser contatado via yuvalfi65131cs. technion. ac. il. Não estou surpreso que houvesse várias questões com uma única resposta, fornecida por Yuval Filmus. Yuval é muito ativo em responder perguntas. Ele também tende a responder muito rapidamente e a publicar respostas excelentes e claras. Não seria surpreendente que a maioria dos outros vejasse a questão somente depois que Yuval já respondeu, eles olham sua resposta, descobrem que é excelente e pensam a si mesmos, não posso melhorar, isso já é respondido e passar para alguns outra questão. Aproximação de largura de banda de uma família restrita de árvores (tese de mestrado) Consideramos o problema de otimização NP-complete Bandwith. Anupam Gupta deu um algoritmo de aproximação O (log 2.5 n) para árvores e mostrou que seu algoritmo possui uma razão aproximada de O (log n) em lagartas. Árvores formadas por um caminho central e caminhos que deleiam. Mostramos que a mesma proporção de aproximação é obtida em árvores compostas por um caminho central e orugas que emanam dela. Nosso resultado depende do seguinte lema. Uma seqüência a 1. Hellip, a n tem espessura Theta se a soma de qualquer d elementos consecutivos é no máximo d Theta, para 1le d le n. Se uma seqüência tem espessura Theta, a sequência obtida ao ordenar os elementos em ordem não decrescente também tem espessura Theta Métodos espectrales em combinatória extrema (tese de doutorado) A combinatória extrema estuda o tamanho de uma coleção de objetos pode ser se satisfizer um determinado conjunto De restrições. Inspirado por um teorema clássico devido a Erd337s, Ko e Rado, Sominovits e Soacutes apresentaram o seguinte problema: determine quão grande uma coleção de gráficos no conjunto de vértices n pode ser, se a interseção de dois deles contém um triângulo. Eles conjecturaram que a maior coleção possível, contendo 18 de todos os gráficos, consiste em todos os gráficos contendo um triângulo fixo (um triangulo-estrela). O primeiro grande contributo da tese é uma confirmação dessa conjectura. Este resultado apareceu pela primeira vez em nosso papel Triangle-intersecting famílias de gráficos com David Ellis e Ehud Friedgut. Nós provamos a conjectura de SimonovitsndashSoacutes na seguinte forma forte: as únicas famílias que se cruzam triangulares da medida máxima 18 são estrelas triangulares (singularidade), e cada família de medidas de triangulo-intersecção 18minus epsilon é O (epsilon) - fecha-se a um triângulo - star (estabilidade). Nossa prova usa métodos espectrais (Hoffmans vinculado). Para provar a parte de estabilidade de nosso teorema, utilizamos um teorema de estrutura para funções booleanas em m cuja expansão de Fourier é concentrada nos primeiros níveis de t 1, devido a Kindler e Safra. A segunda maior contribuição desta tese consiste em dois análogos deste teorema para funções booleanas em S m, cuja expansão de Fourier é concentrada nos dois primeiros níveis. Estes resultados aparecem em nossos documentos. Um resultado de quase estabilidade para as ditaduras nos resultados de estabilidade Sn e A para ditaduras equilibradas em S n. Ambos com David Ellis e Ehud Friedgut. Da mesma forma que o teorema de KindlerndashSafra é útil para estudar famílias que se cruzam triangulares, nossos teoremas de estrutura são úteis para estudar famílias de permutações que se cruzam, que são famílias nas quais duas permutações concordam com a imagem de pelo menos um ponto. Usando um de nossos teoremas, damos uma prova simples do seguinte resultado de Ellis, Friedgut e Pilpel: uma família de permutações cruzadas em S m de tamanho (1minus epsilon) (m menos1) é O (epsilon) - fecha para um duplo Coset, uma família que consiste de todas as permutações enviando algum ponto i para algum ponto j. A tese inclui uma exposição detalhada do artigo de Friedguts Sobre a medida das famílias que se cruzam, singularidade e estabilidade. Uma prova do teorema de AhashwedendKhachatrian na configuração mu p. E uma introdução gentil à teoria da representação de S n do ponto de vista das funções da classe. Combinação de famílias de gráficos que se cruzam em triângulo (com David Ellis e Ehud Friedgut) Jornal da Sociedade Matemática Européia, Volume 14, Número 3, 2012, pp. 841ndash885 Uma família de gráficos é dito triangular-se cruzando se a interseção de dois Os gráficos na família contém um triângulo. Uma conjectura de Simonovits e Soacutes de 1976 afirma que as maiores famílias de gráficos que se cruzam em um triângulo em um conjunto fixo de n vértices são aquelas obtidas ao consertar um triângulo específico e tirar todos os gráficos que o contêm, resultando em uma família contendo 18 de todos os gráficos. Provamos essa conjectura e algumas generalizações (por exemplo, provamos que o mesmo é verdade para as famílias que se cruzam de um ciclo ímpar, e obtemos os melhores limites possíveis no tamanho da família sob diferentes medidas, não necessariamente uniformes). Também obtemos resultados de estabilidade, mostrando que quase as maiores famílias que se cruzam em triângulos têm aproximadamente a mesma estrutura. A versão ArXiv corrige um erro na parte de prova da estabilidade do Corollary 2.3. A prova original supôs que a família G aproximada é de acordo com o ciclo estranho, e deduziu que G deve ser uma triangulo-junta da singularidade. No entanto, mostrando que G é um ciclo ímpar requer um argumento separado, encontrado na nova versão. Uma apresentação alternativa dos resultados neste trabalho pode ser encontrada na minha tese de doutorado. Teoremas de Kachatan: teor ponderado, infinito e Hamming. Nós fornecemos uma prova completa do AhlswedendashKhachatrian na configuração mu p: para todos os valores de n. T e p, determinamos a medida máxima de mu p de uma família intersecante em n pontos e descrevemos todas as famílias ótimas (exceto algumas configurações de parâmetros excepcionais). Nossa prova é baseada em argumentos de Ahlswede e Khachatrian. Nós também determinamos o que ocorre no caso de famílias em infinitos pontos. Finalmente, descrevemos análogos do teorema de AhshwedendashKhachatrian em x2124 m n (o esquema Hamming). Vinte perguntas (simples) (com Yuval Dagan, Ariel Gabizon e Shay Moran) Dada uma distribuição mu. O objetivo do jogo distributivo de 20 perguntas é construir uma estratégia que identifique um elemento desconhecido tirado de mu usando pequenas consultas simno em média. O algoritmo de Huffmans constrói uma estratégia ótima, mas as questões que alguém precisa perguntar podem ser arbitrárias. Dado um parâmetro n. Perguntamos quão grande um conjunto de questões Q precisa ser para que, para cada distribuição suportada em n, exista uma boa estratégia que utilize apenas perguntas de Q. Nosso primeiro grande resultado é que um número linear de perguntas (correspondente a árvores de pesquisa de comparação binária) é suficiente para recuperar o desempenho de H (mu) 1 do algoritmo de Huffmans. Como corolário, deduzimos que o número de perguntas necessárias para garantir um custo de, no máximo, H (mu) r (para o número inteiro r) é assintótico para rn 1 r. Nosso segundo resultado principal é que (aproximadamente) 1.25 n perguntas são suficientes para combinar exatamente o desempenho do algoritmo de Huffmans, e isso é apertado para infinitamente muitos n. Também determinamos o número de perguntas suficientes para combinar o desempenho do algoritmo de Huffmans até r para ser Theta (n Theta (1 r)). Finalmente, mostramos que o conjunto de perguntas usadas para obter o H (mu) 1 ligado funciona melhor quando a probabilidade máxima de mu é pequena, limitando o desempenho entre 0.5011 e 0.58607. Análise das funções booleanas Um resultado de quase estabilidade para as ditaduras em S n (com David Ellis e Ehud Friedgut) Combinatorica, Volume 35, Edição 5, 2015, páginas 573ndash618. Comprovamos que as funções booleanas em S n cuja transformada de Fourier está altamente concentrada no As duas primeiras representações irredutivíveis de S n são próximas de serem uniões de cosets de estabilizadores de pontos. Nós usamos isso para dar uma prova natural de um resultado de estabilidade em famílias que se cruzam de permutações, originalmente conjeturado por Cameron e Ku, e primeiro provado por David Ellis. Nós também usamos isso para provar um resultado de lsquoquasi-stabilityrsquo para uma desigualdade de borda-isoperimétrica no gráfico de transposição em S n. Ou seja, que os subconjuntos de S n com pequeno limite de borda no gráfico de transposição são próximos de uniões de cosets de estabilizadores de pontos. Uma apresentação alternativa do teorema principal (sem a segunda aplicação) pode ser encontrada na minha tese de doutorado. Um resultado de estabilidade para ditaduras equilibradas em S n (com David Ellis e Ehud Friedgut) Estruturas aleatórias e algoritmos, Volume 46, edição 3, 2015, pp. 494ndash530. Provamos que uma função booleana balanceada em S n cuja transformada de Fourier é altamente concentrada em As duas primeiras representações irredutivíveis de S n estão próximas em estrutura a uma ditadura, função determinada pela imagem ou pré-imagem de um único elemento. Como corolário, obtemos um resultado de estabilidade em relação a conjuntos isoperimétricos extremos no gráfico Cayley em S n gerados pelas transposições. Nossa prova funciona no caso em que a expectativa da função é delimitada de 0 e 1. Em contraste, o artigo anterior trata das funções booleanas da expectativa O (1 n) cuja transformação de Fourier está altamente concentrada nas duas primeiras representações irredutivíveis de S n. Estes não precisam estar perto de ditaduras, em vez disso, eles devem estar perto de uma união de um número constante de cosets de estabilizadores de pontos. Uma apresentação alternativa do teorema principal pode ser encontrada na minha tese de doutorado. Funções booleanas de baixo grau em S n. Com uma aplicação à isoperimetria (com David Ellis e Ehud Friedgut) Demonstramos que as funções booleanas em S n cuja transformada de Fourier está altamente concentrada em representações irredutíveis indexadas por partições de n cuja maior parte tem tamanho pelo menos n menos t são próximas de serem sindicatos De cosmetos de estabilizadores de t - tuples. Também obtemos uma desigualdade de borda-isoperimétrica para o gráfico de transposição em S n, que é assintoticamente nítida para conjuntos de medidas 1poly (n). Em seguida, combinamos os dois resultados para obter uma desigualdade de borda-isoperimétrica melhor possível para conjuntos de tamanho (n menos t) onde n é grande em comparação com t. Confirmando uma conjectura de Ben-Efraim nesses casos. Sobre a soma das influências L1 de funções delimitadas (com Hamed Hatami, Nathan Keller e Noam Lifshitz) Jornal de Matemática de Israel, Volume 214, edição 1, 2016, pp. 167ndash192 É sabido que se f é uma função booleana de grau D então sua influência total é delimitada por d. Existem várias maneiras de ampliar a definição de influência para funções não booleanas. A maneira usual é definir a influência da i-ésima variável como a norma L2 da derivada discreta na direção i. Sob esta definição, a influência total de uma função delimitada (limitada por 1 em magnitude) ainda é limitada pelo grau. Aaronson e Ambainis perguntaram se a influência total de L1 pode ser limitada polinomialmente pelo grau, e isso foi respondido afirmativamente por Ba269kurs e Bavarian. Que apresentou um limite superior de O (d 3) para funções gerais, e O (d 2) para funções homogêneas. Melhoramos seus resultados, dando um limite superior de d 2 no caso geral e O (d log d) no caso homogêneo. Nossas provas também são muito mais simples. Nós também damos um limite quase ideal para funções monótonas, d 2 pi o (d). Uma base ortogonal para funções sobre uma fatia do cubo booleano. Jornal eletrônico de Combinação. Johnson e Kneser são gráficos definidos nos k-sets de n, um conjunto de vértices conhecido como uma fatia do cubo booleano. Dois conjuntos estão conectados no gráfico Johnson, se eles tiverem distância Hamming dois, e no gráfico Kneser, se eles são disjuntos. Ambos os gráficos pertencem à álgebra BosendashMesner do esquema de associação Johnson, isso significa que se uma borda se conecta a dois conjuntos S, T depende apenas de 124 S cap T 124. Todos os gráficos pertencentes à álgebra BosendashMesner têm os mesmos espaços e esses são bons - conhecido, decorrente de certas representações do grupo simétrico. A multiplicidade do k iégenspace é bastante grande, C (n, k) menos C (n, k menos1). Tanto quanto podemos dizer, antes do nosso trabalho, nenhuma base ortogonal explícita para este espaço eletrônico foi exibida. Apresentamos uma base ortogonal simples para os eigenspaces da álgebra BosendashMesner do esquema de associação de Johnson, decorrente da base ortogonal de Young para o grupo simétrico. Nossa apresentação é completamente elementar e não menciona o grupo simétrico. Como uma aplicação, reafirmamos a prova Wimmers do teorema de Friedguts para a fatia. A prova original faz uso intenso de cálculos sobre o grupo simétrico. Podemos fazer esses cálculos diretamente na fatia usando nossa base. FriedgutndashKalaindashNaor teorema para fatias do cubo booleano Chicago Journal of Theoretical Computer Science O teorema de FriedgutndashKalaindashNaor é um resultado fundamental na análise da função booleana. Ele afirma que se uma função booleana f estiver próxima de uma função afim, então f está perto de uma função booleana affine, que deve depender de no máximo uma coordenada. Provamos um análogo deste teorema para fatias do cubo booleano (uma fatia consiste em todos os vetores com um dado peso de Hamming). No pequeno regime de erros, nosso teorema mostra que f está perto de uma função dependendo de no máximo uma coordenada e, em geral, mostramos que a sua negação é próxima de um número máximo de coordenadas (isto corresponde a uma união De estrelas, famílias constituídas por todos os elementos que contenham algum elemento fixo). Princípio de invariância na fatia (com Guy Kindler, Elchanan Mossel e Karl Wimmer) O princípio clássico de invariância de Mossel, ODonnell e Oleszkiewicz afirma que a distribuição de polinômios multilineares de baixa e baixa influência sob variáveis ​​aleatórias de Bernoulli é semelhante à sua distribuição sob Variáveis ​​aleatórias gaussianas com a mesma expectativa e variância. Provamos um princípio de invariância para funções na fatia (todos os vetores no cubo booleano com um peso Hamming fixo). A principal dificuldade é que as variáveis ​​não são mais independentes. Como corolários, provamos que uma versão de maioria é mais estável. Uma cauda de Bourgain ligada. E uma versão fraca do teorema de KindlerndashSafra. O teorema de KindlerndashSafra implica um resultado de estabilidade para as famílias que integram as linhas ao longo das linhas de Friedgut. No trabalho de acompanhamento (veja abaixo), melhoramos o princípio da invariância removendo a condição de influências baixas (quando apropriado). Harmonização e invariância em fatias do cubo booleano (com Elchanan Mossel) O princípio de invariância clássico de Mossel, ODonnell e Oleszkiewicz afirma que a distribuição de polinômios multilineares de baixa influência e baixa influência sob uma distribuição de produto depende essencialmente apenas dos dois primeiros momentos Desta distribuição. Em trabalhos recentes com Kindler e Wimmer (veja acima), estendemos isso a polinômios multilineis harmônicos na fatia. Nesse trabalho, provamos invariância em relação às três distribuições seguintes: a distribuição uniforme em uma fatia, a correspondente distribuição distorcida no cubo booleano e a fatia gaussiana correspondente (ou espaço gaussiano, as distribuições são as mesmas). Esse princípio de invariância exige que a função tenha baixo grau e baixas influências. Embora a condição de baixas influências seja necessária ao comparar distribuições discretas com o espaço gaussiano (considere o polinômio x 1), essa condição não é mais necessária ao comparar a distribuição uniforme em uma fatia com a distribuição distorcida correspondente no cubo booleano. Neste artigo, provamos um princípio de invariância para essas duas distribuições sem qualquer condição sobre as influências. Usando o princípio da invariância clássica, podemos derivar facilmente o princípio de invariância mais geral que provamos com Kindler e Wimmer. Nossa nova prova é completamente diferente e usa uma abordagem martingale. Complementando o princípio da invariância, reprovamos várias propriedades de polinômios harmonia multilineares. Embora a maioria dessas propriedades tenha sido comprovada anteriormente no meu trabalho usando uma base ortogonal explícita para a fatia, as provas que aparecem neste artigo são muito mais simples e não requerem a base. Esperamos que as novas provas sejam mais fáceis de generalizar para outras configurações. Complexidade computacional A complexidade do problema do valor do circuito do comparador (com Stephen A. Cook e Dai Lecirc) Em 1990, o Subramanian definiu a classe de complexidade CC como o conjunto de problemas log-space redutível ao problema do valor do circuito do comparador (CCV). Ele e Mayr mostraram que o NLsubeCCsubeP e provaram que, além de CCV, vários outros problemas estão completos para o CC, incluindo o problema do casamento estável, e encontrar a primeira combinação máxima lexicograficamente em um gráfico bipartido. Embora a classe não tenha recebido muita atenção desde então, estamos interessados ​​em CC porque conjectamos que é incomparável com a classe paralela NC que também satisfaz o NLsubeNCsubeP, isso implica que os problemas CC-completos não possuem um algoritmo de tempo paralelo polilog eficiente. Nós fornecemos provas para nossa conjectura dando configurações de oráculo nas quais o CC relativizado e NC relativizado são incomparáveis. Damos várias definições alternativas de CC, incluindo (entre outros) a classe de problemas calculada por famílias de tamanho polinomial uniformes de circuitos de comparação fornecidos com cópias da entrada e sua negação, a classe de problemas AC 0 - reduzível a CCV e a Classe de problemas computados por circuitos AC 0 uniformes com portões CCV. Nós também fornecemos um modelo de máquina para CC que corresponde às suas caracterizações como famílias de tamanho polinomial uniformes log-space de circuitos de comparação. As várias caracterizações mostram que o CC é uma classe robusta. Nossas técnicas também mostram que a classe de função correspondente FCC está fechada em composição. A principal ferramenta técnica que empregamos é o comparador universal. Outros resultados incluem uma prova mais simples de NLsubeCC, uma análise mais cuidadosa mostrando que o primeiro problema de correspondência máxima lexicograficamente e suas variantes são CC-completos sob AC 0 reduções de muitos e uma explicação da relação entre algoritmo de GalendashShapley e algoritmo de Subramanianos para Casamento estável. Este artigo continua o trabalho anterior de Cook, Lecirc e Ye, que se concentrou na complexidade de prova uniforme do estilo CookndashNguyen, respondendo várias questões abertas levantadas nesse documento. A pré-impressão contém mais resultados do que a versão ArXiv e a apresentação é diferente. Limites inferiores de casos médios para redes de comutação monótonas (com Toniann Pitassi, Robert Robere e Stephen A. Cook) Um cálculo aproximado de uma função booleana f por um circuito ou rede de comutação M é uma computação na qual M calcula f corretamente na maioria dos Entradas (e não em todas). Além de serem interessantes por direito próprio, os limites inferiores para computação aproximada se mostraram úteis em muitas subáreas de teoria da complexidade, como criptografia e derandomização. Os limites inferiores para cálculos aproximados também são conhecidos como limites de correlação ou dureza média do caso. Obtivemos os primeiros limites médios de profundidade monótona média para uma função em monótonos P. Nós toleramos erros até 12minus1 n 13minus delta. Especificamente, provamos os limites inferiores exponenciais do caso médio no tamanho das redes de comutação monotônicas para a função GEN. Como corolário, estabelecemos que, para cada i, existem funções que podem ser computadas sem erro no monotone NC i 1, mas que não podem ser computadas sem grande erro por circuitos monotônicos em NC i. Nós fornecemos uma separação similar entre monotone NC e monotone P. Nossa prova se estende e simplifica a técnica de análise de Fourier devido à Potechina e desenvolvida por Chan e Potechin. Como corolário do nosso limite inferior principal, provamos que a abordagem de complexidade de comunicação para limites inferiores de profundidade monótona não generaliza naturalmente a configuração de caso média. Multiplicação rápida da matriz: limitações do método laser (com Andris Ambainis e Franccedilois Le Gall) Coppersmith e Winograd deram um algoritmo O (n 2.376) para a multiplicação da matriz em 1990. Seu algoritmo depende de uma identidade conhecida como a identidade CoppersmithndashWinograd. Analisando a identidade - usando o método laser de Strassens e uma construção engenhosa, Coppersmith e Winograd obtiveram um algoritmo O (n 2.388). O quadrado tensor da identidade básica leva ao algoritmo melhorado. Recentemente houve uma onda de atividade na área. Stothers, Vassilevska-Williams e Le Gall estudaram maior e maior poder tensor da identidade básica, culminando no algoritmo Le Galls O (n 2.3728639). Até que ponto essa abordagem está em curso. Descrevemos um framework, método laser com fusão. Que abrange todos os algoritmos que acabamos de descrever, e é ao mesmo tempo mais geral e passível de análise. Mostramos que tomar o N th tensor power para N arbitrário não pode obter um algoritmo com o tempo de execução O (n 2.3725) para a identidade exata usada em algoritmos de última geração. A complexidade da informação de negociação para o erro (com Yuval Dagan, Hamed Hatami e Yaqiao Li) Discutimos a seguinte questão geral: Como a complexidade da informação de uma função muda se permitimos erros não negligenciáveis. Nossas respostas têm implicações para a complexidade da comunicação do conjunto Disjunção com erro não negligenciável. Complexidade de prova Limites inferiores exponentes para AC 0 - Frege implicam limites inferiores da superpolinomia Frege (com Toniann Pitassi e Rahul Santhanam) ICALP 2011, ToCT 2015 Nós damos uma transformação geral que transforma as provas Frege de tamanho polinomial em AC subexponencial ACESSÓRIOS. Isso indica que provar limites inferiores exponenciais para AC 0 - Frege é difícil, uma vez que é um problema aberto de longa data para testar os limites inferiores super-polinomiais para o Frege. Nossa construção é ideal para provas semelhantes a árvores. Como conseqüência do nosso resultado principal, somos capazes de lançar alguma luz sobre a questão da fraca automatizabilidade para sistemas Frege de profundidade limitada. Primeiro, apresentamos uma prova mais simples dos resultados de Bonet et al. Mostrando que sob pressupostos criptográficos, as provas Frege de profundidade limitada não são fracamente automatizáveis. Em segundo lugar, mostramos que, porque nossa prova é mais geral, sob os pressupostos criptográficos corretos, ela poderia resolver a fraca questão de autenticação automática para sistemas Frege de menor profundidade. A versão do processo contém vários pequenos erros, corrigidos na versão pré-impressão. Estes erros afetam ligeiramente as constantes no teorema principal. A complexidade do espaço no cálculo polinomial (com Massimo Lauria, Jakob Nordstroumlm, Neil Thapen e Noga Zewi) CCC 2012, SICOMP 2015 Durante a última década, uma linha ativa de pesquisa na complexidade da prova foi estudar a complexidade do espaço e os trade-off do espaço-tempo Para provas. Além de ser uma medida de complexidade natural de interesse intrínseco, o espaço também é uma questão importante na resolução de SAT, e, portanto, a pesquisa se concentrou principalmente em sistemas fracos que são usados ​​pelos solucionadores SAT. Houve uma seqüência relativamente longa de documentos sobre o espaço em resolução, que agora é bem compreendida desse ponto de vista. Para outros candidatos naturais para estudar, no entanto, como cálculos polinomiais ou planos de corte, muito pouco tem sido conhecido. Não temos conhecimento de nenhum limite de espaço não trivial para planos de corte e, para cálculos polinomiais, o único limite inferior foi para fórmulas CNF de largura ilimitada em Alekhnovich et al., Onde o limite inferior do espaço é menor do que a largura inicial das cláusulas Nas fórmulas. Assim, em particular, tem sido consistente com o conhecimento atual de que o cálculo polinomial poderia ser capaz de refutar qualquer fórmula k - CNF em espaço constante. Provamos vários novos resultados no espaço no cálculo polinomial (PC), e na resolução do cálculo do polinômio do sistema de prova estendida (PCR) estudada por Alekhnovich et al. Nós comprovamos um limite menor do espaço Omega (n) no PC para a versão canônica 3-CNF das fórmulas de princípios do pombo com m pombos e n buracos e mostra que isso é apertado. Para o PCR, provamos um limite inferior do espaço Omega (n) para uma codificação bitwise do princípio do pigeonhole funcional. Essas fórmulas possuem largura O (log n) e, portanto, é uma melhoria exponencial em relação a Alekhnovich et al. Medido na largura das fórmulas. Em seguida, apresentamos outra codificação do princípio do pombo que tem largura constante, e provamos também um limite menor do espaço Omega (n) na PCR para essas fórmulas. Finalmente, provamos que qualquer fórmula de k - CNF pode ser refutada no PC em tamanho exponencial simultâneo e espaço linear (que é válido para resolução e, portanto, para PCR, mas não foi obviamente o caso para PC). Nós também caracterizamos uma classe natural de fórmulas CNF para as quais a complexidade espacial em resolução e PCR não muda quando a fórmula é transformada em 3-CNF de maneira canônica, algo que acreditamos pode ser útil ao provar espaço de PCR limites inferiores para outros Famílias de fórmulas bem estudadas na complexidade da prova. Para uma compreensão do cálculo polinomial: novas separações e limites inferiores (com Massimo Lauria, Mladen Mik353a, Jakob Nordstroumlm e Marc Vinyals). Durante a última década, uma linha ativa de pesquisa na complexidade da prova tem sido a complexidade espacial das provas e como O espaço está relacionado a outras medidas. Até agora, esses aspectos da resolução são bastante bem compreendidos, mas muitos problemas abertos permanecem para o sistema de cálculo de polinômios relacionados (PCPCR) relacionado, mas mais forte. Por exemplo, a complexidade do espaço de muitos formulesrdquo padrão do ldquobenchmark ainda está aberta, bem como a relação de espaço para tamanho e licenciatura no PCPCR. Nós provamos que, se uma fórmula requer grande largura de resolução, então, a substituição de XOR produz uma fórmula que requer grande espaço de PCR, fornecendo algumas evidências circunstanciais de que o grau pode ser um limite inferior para o espaço. Mais importante ainda, isso produz fórmulas que são muito difíceis para o espaço, mas são muito fáceis de dimensionar, exibindo uma separação tamanho-espaço semelhante ao que é conhecido pela resolução. Usando idéias relacionadas, mostramos que, se um gráfico tiver uma boa expansão e, além disso, seu conjunto de bordas pode ser particionado em ciclos curtos, então a fórmula Tseitin sobre este gráfico requer grande espaço de PCR. Em particular, fórmulas de Tseitin sobre aleatoriamente 4 grafos regulares exigem, com certeza, espaço pelo menos Omega (n 12). Nossas provas usam técnicas recentemente divulgadas por Bonacina e Galesi. Nossa contribuição final é mostrar que essas técnicas não podem provar limites inferiores do espaço não-constante para o princípio do pigeonhole funcional, delineando as limitações deste quadro e sugerindo que ainda estamos longe de caracterizar o espaço do PCPCR. Do pequeno espaço a uma pequena largura de resolução (com Massimo Lauria, Mladen Mik353a, Jakob Nordstroumlm e Marc Vinyals) Em 2003, Atserias e Dalmau resolveram uma questão aberta importante sobre o sistema de prova de resolução ao estabelecer que a complexidade espacial das fórmulas é sempre superior Ligado à largura necessária para refutá-los. A sua prova é bonita, mas um pouco misteriosa, porque depende muito das ferramentas da teoria dos modelos finitos. Damos uma prova alternativa, completamente elementar, que funciona por manipulações sintáticas simples de refutações de resolução. Como subproduto, desenvolvemos uma técnica de caixa preta para comprovar os limites inferiores do espaço através de uma medida de complexidade estática que funciona contra qualquer técnica de refutação de resolução. As técnicas anteriores foram inerentemente adaptativas. Concluímos ao mostrar que a questão relacionada ao cálculo polinomial (isto é, se o espaço é um limite superior no grau) parece improvável que seja resolvida por métodos semelhantes. No grau AlekhnovichndashRazborov, o limite inferior para o cálculo polinomial Alekhnovich e Razborov (limites inferiores para cálculos polinomiais: caso não binomial) proporcionou um limite inferior de grau sofisticado para provas no sistema polinomial de prova de cálculo. No entanto, sua prova é um pouco opaca. Apresentamos uma prova diferente e mais intuitiva. Nós também adaptamos nossa prova para obter resultados relacionados de Galesi e Lauria. Trabalho feito durante a visita ao KTH em dezembro de 2012. Planos de corte semânticos versus sintáticos (com Pavel Hrube154 e Massimo Lauria) Os planos de corte são um sistema de prova em que as linhas são desigualdades lineares. Possui duas variantes principais: planos de corte sintático, em que são dadas regras de derivação específicas, e planos de corte semânticos, nos quais é permitida qualquer derivação de ventilador limitada que seja semanticamente correta (para todas as atribuições de zero a uma para variáveis). Somente a versão sintática é um sistema de prova CookndashReckhow, uma vez que verificar uma prova de planos de corte semântico é coNP-complete. Extending earlier work of Pudlaacutek, we give an exponential lower bounds for semantic cutting planes. We also show that semantic cutting planes is exponentially stronger than syntactic cutting planes, and exhibit two contradictory lines which take exponentially long to refute in syntactic cutting planes. This work is a combination of two earlier preprints: a preprint of Pavel Hrube154 proving the exponential lower bound for semantic cutting planes, and a preprint of Massimo Lauria and myself proving the exponential separation between semantic and syntactic cutting planes. Approximation algorithms Maximum coverage over a matroid (with Justin Ward) We present an optimal, combinatorial 1minus1 e approximation algorithm for Maximum Coverage over a matroid constraint, using non-oblivious local search. Calinescu, Chekuri, Paacutel and Vondraacutek have given an optimal 1minus1 e approximation algorithm for the more general problem of monotone submodular maximization over a matroid constraint. The advantage of our algorithm is that it is entirely combinatorial, and in many circumstances also faster, as well as conceptually simpler. Following previous work on satisfiability problems by Alimonti and by Khanna, Motwani, Sudan and Vazirani. our local search algorithm is non-oblivious . That is, our algorithm uses an auxiliary linear objective function to evaluate solutions. This function gives more weight to elements covered multiple times. We show that the locality ratio of the resulting local search procedure is at least 1minus1 e . Our local search procedure only considers improvements of size 1. In contrast, we show that oblivious local search, guided only by the problems objective function, achieves an approximation ratio of only ( n minus1)(2 n minus1minus k ) when improvements of size k are considered. In general, our local search algorithm could take an exponential amount of time to converge to an exact local optimum. We address this situation by using a combination of approximate local search and the same partial enumeration techniques used by Calinescu et al. resulting in a clear (1minus1 e )-approximation algorithm running in polynomial time. We obtained our auxiliary linear objective function using linear programming. This is detailed in Wards thesis. A tight combinatorial algorithm for submodular maximization subject to a matroid constraint (with Justin Ward) FOCS 2012, SICOMP We present an optimal, combinatorial 1minus1 e approximation algorithm for monotone submodular optimization over a matroid constraint. Compared to the continuous greedy algorithm due to Calinescu, Chekuri, Paacutel and Vondraacutek. our algorithm is extremely simple and requires no rounding. It consists of the greedy algorithm followed by local search. Both phases are run not on the actual objective function, but on a related auxiliary potential function, which is also monotone submodular. In our previous work on maximum coverage (the preceding paper), the potential function gives more weight to elements covered multiple times. We generalize this approach from coverage functions to arbitrary monotone submodular functions. When the objective function is a coverage function, both definitions of the potential function coincide. Our approach generalizes to the case where the monotone submodular function has restricted curvature. For any curvature c . we adapt our algorithm to produce a (1minus e minus c ) c approximation. This matches results of Vondraacutek. who has shown that the continuous greedy algorithm produces a (1minus e minus c ) c approximation when the objective function has curvature c with respect to the optimum, and proved that achieving any better approximation ratio is impossible in the value oracle model. The paper exists in several different versions: The FOCS version only contains the case c 1. The ArXiv version contains the result for general c . A similar account can be found in Wards thesis. The journal version contains a significantly simplified proof of the result for general c . The extended version includes slightly better approximation ratios for bounded matroid rank, and an improved version of the continuous greedy algorithm. The exposition gives a simplified exposition of the main part of the analysis, following ideas of Moran Feldman. The journal version supersedes the previous versions. Social choice theory Threshold models for competitive influence in social networks (with Allan Borodin and Joel Oren) The problem of influence maximization deals with choosing the optimal set of nodes in a social networks so as to maximize the resulting spread of a technology (opinion, product ownership and so on), given a model of diffusion of influence in a network. A natural extension is a competitive setting, in which the goal is to maximize the spread of our technology in the presence of one or more competitors. We suggest several natural extensions to the well-studied linear threshold model, showing that the original greedy approach cannot be used. Furthermore, we show that for a broad family of competitive influence models, it is NP-hard to achieve an approximation that is better than a square root of the optimal solution the same proof can also be applied to give a negative result for a conjecture in Carnes et al. about a general cascade model for competitive diffusion. Finally, we suggest a natural model that is amenable to the greedy approach. Efficient vote elicitation under candidate uncertainty (with Craig Boutilier and Joel Oren) Top - k voting is an especially natural form of partial vote elicitation in which only length - k prefixes of rankings are elicited. We analyze the ability of top - k vote elicitation to correctly determine true winners with high probability, given probabilistic models of voter preferences and candidate availability. We provide bounds on the minimal value of k required to determine the correct winner under the plurality and Borda voting rules, considering both worst-case preference profiles and profiles drawn from the impartial culture and Mallows probabilistic models. We also derive conditions under which the special case of zero elicitation (i. e. k 0) produces the correct winner. We provide empirical results that confirm the value of top - k voting. The proof of Theorem 10 is incomplete, but the issue is fixed in future work. Efficient voting via the top - k elicitation scheme: a probabilistic approach (with Joel Oren) Many voting rules require the voters to give a complete preference order over the candidates. This is cumbersome, leading to the notion of top - k voting . in which the voters only give the length - k prefixes of their rankings. The question that we ask in this paper is: given a voting rule, for what value of k is it possible to predict the overall winner given only the length - k prefixes, with high probability, given enough voters We first consider the case of an impartial culture . in which the voters choose their preference profiles uniformly at random over all permutations. For positional scoring rules (like Borda) we give a nearly-tight threshold theorem for k . We also prove a strong, though non-optimal, lower bound for Copeland. When the preference profiles are drawn from a biased distribution, such as the Mallows distribution, we show that the candidate toward which the distribution is biased wins the elections, for both positional scoring rules and Copeland, with high probability. Finally, we consider adversarially-chosen preference distributions. We show that for positional scoring rules with geometrically decaying scores, k O (log n ) suffices to predict the winner with high probability. Power distribution in randomized weighted voting: the effects of the quota (with Joel Oren, Yair Zick and Yoram Bachrach) IJCAI 2016 (first half), SAGT 2016 (second half) We study the Shapley value in weighted voting games. The Shapley value has been used as an index for measuring the power of individual agents in decision-making bodies and political organizations, where decisions are made by a majority vote process. We characterize the impact of changing the quota (i. e. the minimum number of seats in the parliament that are required to form a coalition) on the Shapley values of the agents. Contrary to previous studies, which assumed that the agent weights (corresponding to the size of a caucus or a political party) are fixed, we analyze new domains in which the weights are stochastically generated, modeling, for example, elections processes. We examine a natural weight generation process: the Balls and Bins model, with uniform as well as exponentially decaying probabilities. We also analyze weights that admit a super-increasing sequence, answering several open questions pertaining to the Shapley values in such games. Our results for the balls and bins model with exponentially decaying probabilities rely on a formula for the Shapley values of super-increasing sequences. Curiously, this formula gives rise to a continuous function reminiscent of Minkowskis question mark function. Shapley values in random weighted voting games (with Joel Oren and Kannan Soundararajan) We study the distribution of Shapley values in weighted voting games. The Shapley values measure the voting power collective decision making systems. While easy to estimate empirically given the parameters of a weighted voting game, the Shapley values are hard to reason about analytically. We propose a probabilistic approach, in which the agent weights are drawn i. i.d. from some known exponentially decaying distribution. We provide a general closed-form characterization of the highest and lowest expected Shapley values in such a game, as a function of the parameters of the underlying distribution. To do so, we give a novel reinterpretation of the stochastic process that generates the Shapley variables as a renewal process. We demonstrate the use of our results on the uniform and exponential distributions. Miscellaneous Automatic web-scale information extraction (with Philip Bohannon, Nilesh Dalvi, Nori Jacoby, Sathiya Keerthi and Alok Kirpal) In this demonstration, we showcase the technologies that we are building at Yahoo for web-scale information extraction. Given any new website, containing semi-structured information about a pre-specified set of schemas, we show how to populate objects in the corresponding schema by automatically extracting information from the website. Work done while I was a summer intern in Yahoo Tel Aviv. Lower bounds for context-free grammars Information Processing Letters, Volume 111, Issue 18, 2011, pp. 895ndash898 Ellul, Krawetz, Shallit and Wang prove an exponential lower bound on the size of any context-free grammar generating the language of all permutations over some alphabet. We generalize their method and obtain exponential lower bounds for many other languages, among them the set of all squares of given length, and the set of all words containing each symbol at most twice. The version below corrects two typos in the proof of Proposition 6: w 1 sim w 2 should be x ( w 1 )sim x ( w 1 ), and in the following sentence N minus1 ( A ) should be x ( N minus1 ( A )) and a typo in the statement of Theorem 9: the exponent should be t rather than n . Inequalities on submodular functions via term rewriting Information Processing Letters, Volume 113, Issue 13, 2013, pp. 457ndash464 We devise a method for proving inequalities on submodular functions, with a term rewriting flavour. Our method comprises of the following steps: Start with a linear combination X of the values of the function. Define a set of simplification rules. Conclude that X geq Y . where Y is a linear combination of a small number of terms which cannot be simplified further. Calculate the coefficients of Y by evaluating X and Y on functions on which the inequality is tight. The crucial third step is non-constructive, since it uses compactness of the dual cone of submodular functions. Its proof uses the classical uncrossing technique with a quadratic potential function. We prove several inequalities using our method, and use them to tightly analyze the performance of two natural (but non-optimal) algorithms for submodular maximization, the random set algorithm and local search. Universal codes of the natural numbers Logical Methods in Computer Science, Volume 9, Issue 3, 2013, Paper 7. A code of the natural numbers is a uniquely-decodable binary code of the natural numbers with non-decreasing codeword lengths, which satisfies Krafts inequality tightly. We define a natural partial order on the set of codes, and show how to construct effectively a code better than a given sequence of codes, in a certain precise sense. As an application, we prove that the existence of a scale of codes (a well-ordered set of codes which contains a code better than any given code) is independent of ZFC. On the spectra of direct sums and Kronecker products of side length 2 hypermatrices (with Edinah K. Gnang) We study the spectral theory of hypermatrices, initiated by Gnang, Elgammal and Retakh. Here are some of our results: We show that Hadamard hypermatrices of side length 2 exist unless the order is an even number larger than 2. We determine the characteristic polynomial and hyperdeterminant of matrices of side length 2. We generalize the Rayleigh quotient to hypermatrices. Unpublished notes Spectral methods for intersection problems A survey of Friedguts research program in extremal combinatorics. Friedgut uses spectral methods mdash Hoffmans eigenvalue bound mdash to obtain tight bounds on measures of intersecting families. His method has the advantage of implying stability . families of near-maximal measure are similar to families of maximal measure. I prepared this survey for my depth oral. Monotone feasible interpolation as games Bonet, Pitassi and Raz and, independently, Krajiacute269ek came up with the idea to use feasible interpolation as a vehicle for lower bounds on proof systems. Bonet et al. presented their construction in a somewhat ad hoc manner, and Krajiacute269ek used a theorem of Razborov generalizing KarchmerndashWigderson games. We provide a different interpretation of their arguments in terms games which are more suitable than the ones considered by Razborov. Our account includes three flavors of arguments: ones following Bonet et al. ones following Krajiacute269ek, and ones following a suggestion of Neil Thapen. The different arguments prove lower bounds for slightly different formulas. The Carromboard Problem Snepscheut came up with the following puzzle. There is a table with four coins at the center of the four sides. The goal is to get all of the coins in the same orientation, that is, all heads or all tails. You never get to see the coins (you are blindfolded), but you can turn one or two of them. Prior to each move, the table is rotated by an arbitrary, unknown multiple of 90 degrees. How many moves do you need to reach the goal D307kstra generalized the solution to 2 n sides. We consider an even more general problem, in which the table has n sides, and the coins have m ldquostatesrdquo which are modified by addition modulo m (more generally, one could think of a finite Abelian group for the state of the coins). We show that: The puzzle is solvable if and only if either n 1, m 1, or n and m are powers of the same prime. When m is prime, we explicitly describe all minimum-length solutions. For similar results and more, see Rotating-table games and derivatives of words by Bar Yehuda, Etzion and Moran. Seven trees in one Andreas Blass explained how the type-theoretic identity T 1 T 2 for binary trees leads to a ldquofinitisticrdquo identity T 7 T (the solution to the former equation is a primitive sixth root of unity). More generally, he proved that two polynomials in T are ldquoequalrdquo (under his finitistic interpretation) if and only if they agree on a primitive sixth root of unity and in terms of cardinalities. We give an exposition of this result (using work by Fiore and Leinster ), using a more intuitive definition of ldquostrongrdquo equality, as equality given by an algorithm which also works for infinite binary trees. This talk was given in the Toronto Student Seminar on 1692009. Modern integer factorization methods We survey several modern integer factorization methods, including Pollards rho . Pollards p minus1, Williams p 1, the elliptic curve method, Shanks continued fractions algorithm, the quadratic sieve (including MPQS and Dixons provable variant) and the number-field sieve (which is only sketched). Originally given as a talk in the Toronto Student Seminar on 25112009, this talk has proven popular and I gave it several more times. Two proofs of the central limit theorem We provide two proofs of the central limit theorem (up to Leacutevys continuity theorem), one using cumulants and the other using moments. As a bonus, we also prove the asymptotic normality of the number of distinct prime factors of a lsquorandomrsquo integer. Our account follows the exposition in the book The semicircle law, free random variables and entropy. This talk was given in the Toronto Student Seminar on 2012010. Hardness of approximating set cover An exposition of Feiges celebrated result on the hardness of approximating set cover. This talk was given as part of the PCP reading group on 2312010. Matrix multiplication An exposition on algorithms for matrix multiplication, in two parts: Part 1: The arithmetic model. Bilinear normal form for matrix multiplication. Tensor notation and tensor rank. Border rank. Schoumlnhages tau theorem (the asymptotic sum inequality). Coppersmiths Otilde ( n 2 ) algorithm for multiplying rectangular matrices. Part 2: The laser method. The Coppersmith-Winograd algorithms. Capacity: the fundamental combinatorial underpinning of the Coppersmith-Winograd method. These talks were given in the Toronto Student Seminar on 222012 and 922012, though the second one has been significantly updated since. The talks were given again in the IAS theory seminar, on 2522014 and 432014. The second part has been significantly updated: the combinatorial construction has been simplified following Davie and Stothers, and the general presentation follows Le Galls recent paper. Permanent is hard to compute even on a good day Cai, Pavan and Sivakumar showed that it is hard to compute the permanent even with an inversely polynomial success probability, assuming the worst-case hardness of computing the permanent. Their proof combines the LFKN protocol with Sudans list-decoding algorithm for Reed-Solomon codes. We given an exposition of their result, as well as several results leading to it. This talk was given in the Toronto Student Seminar on 1792012. Submodular maximization We survey several recent algorithmic results on submodular maximization: The greedy algorithm for monotone submodular maximization over uniform matroids. The continuous greedy algorithm for monotone submodular maximization over arbitrary matroids (Calinescu, Chekuri, Paacutel and Vondraacutek ). The non-oblivious local search algorithm for monotone submodular maximization over arbitrary matroids (Filmus and Ward ). Uncostrained non-monotone submodular maximization (Buchbinder, Feldman, Naor and Schwartz ). We also briefly survey some lower bounds: 1minus1 e NP-hardness for maximum coverage (Feige ). 1minus1 e value oracle hardness for monotone submodular maximization over a uniform matroid (Nemhauser and Wolsey ). 12 value oracle hardness for unconstrained submodular maximization (Feige, Mirrokni and Vondraacutek ). The symmetry gap method (Vondraacutek. Dobzinski and Vondraacutek ). This talk was given in the Toronto Student Seminar on 3112013. Expositions Smolenskys polynomial method We give an exposition of Smolenskys fundamental paper on the polynomial method, a lower bound method in circuit complexity. Books usually contain a simpler argument which works only for parity, whereas Smolenskys argument also works for majority (directly). Our exposition omits the step of approximating a constant depth circuit by a low-degree polynomial. Forcing with random variables and proof complexity An exposition of parts of Jan Krajiacute269eks book Forcing with random variables and proof complexity. concentrating on lower bounds for constant depth proof systems. Parts of this exposition has been given as talks in a reading group on the book on 1362013 and 2062013. Harpers isoperimetric inequality An exposition of Harpers proof of his edge isoperimetric inequality for the hypercube, following his book Global methods for combinatorial isoperimetric problems . The proof uses a generalization of shifting that Harper calls compression . Compared to Harpers original proof (also reproduced in the book), the compression proof includes only one simple calculation. Short notes Antichains on the Boolean lattice of dimension 6 We provide a list of all inequivalent non-trival antichains on the Boolean lattice of dimension 6, excluding the empty antichain and the one containing the empty set. Alternatively, this is a list containing all inequivalent non-constant monotone Boolean functions on six inputs, given by their minterms. Antichains depending of dimension n are given in terms of the points 1, hellip, n . The number of antichains of given dimension (including the two trivial cases) forms the sequence A003182. NPN equivalence classes of Boolean functions Two Boolean functions are NPN-equivalent if they can be reached from one another by permuting the inputs, negating some of the inputs, and possibly negating the output. The number of different equivalence classes for a given number of variables forms the sequence A000370. which starts 2, 4, 14, 222, 616126, for functions of 1 to 5 variables, respectively. For n up to 5, we have compiled a list of all NPN-equivalence classes of Boolean functions on n variables. Each such function is given as a hexadecimal integer in which bit i is the value at the i th input. Triangle-intersecting families of graphs on eight vertices We given a Katona-like proof that a triangle-intersecting family of graphs contains at most 18 of the graphs. Unfortuantely, our proof works only on up to eight vertices. We discuss several other methods which also cannot give a general proof. Parts of this note are summarized in my thesis. Khintchine-Kahane using Fourier Analysis Lata0322a and Oleszkiewicz proved the special L 1 case of the Khintchine-Kahane inequality. We reformulate their proof using Fourier analysis. Regular languages closed under Kleene plus Vincenzo Ciancia asked on cstheory. stackexchange about the class of regular languages satisfying the following property: whenever a word w belongs to the language, all of its positive powers w k also belong to the language. He termed these languages lsquocircular languagesrsquo. Answering his question, we have shown the following: Every circular language can be written as the union of expressions r . We exhibit a language where this union cannot be disjoint. Given a DFA for a regular language, it is PSPACE-complete to decide whether the language is circular. The normal form appears in a paper by Calbrix and Nivat. and the PSPACE-completeness result follows quite easily from a paper by Kozen. as I detail in my answer. My proofs appear below. Self-avoiding walks on the integers which move at most two integers at a time Yaroslav Bulatov asked on mathoverflow what is the asymptotic number of self-avoiding integer walks of length n in which adjacent positions are either 1 or 2 apart. We obtain a formula for the exact number of such walks, and deduce that it is Otilde ( mu n ), where mu asymp2.20556943040059. On the sequence n mod x . 1leq x leqradic n Avinoam Braverman considered the sequence n mod x . where 1leq x leqradic n . took its local minima, and plotted the results. When n is large, a curious pattern composed out of what seem to be triangles appears. We explain this phenomenon heuristically, given formulas for the envelope of the ldquotrianglesrdquo (which turn out to be quadratic functions). We go on to describe the envelope of the plot when an arbitrary number of the local minima and local maxima operations are composed. Largest adjacent segments on the unit circle Suppose n points are thrown on the circumference of a unit-circumference circle, partitioning the circumference into n segments. What is the expected length of the k th smallest segment There is a well-known formula for this expectation. We consider the expected length of k th smallest two adjacent segments. We develop a method for computing them exactly, and compute the expectations for several small n , k . The results do not seem to fit into a nice pattern. Permutations avoiding patterns of length 3 We provide a bijective proof for the well-known fact that the number of 123-avoiding permutations and the number of 132-avoiding permutations are both counted by Catalan numbers. Simion and Schmidt came up with a direct bijection between the two sets of permutations, and their proof is recommended over mine. Until cannot be expressed using Next, Always, Eventually It is well-known that the until operator in linear temporal logic (LTL) cannot be expressed using next . always and eventually . We provide a simple proof of this fact. Equivalent definitions of the SpraguendashGrundy function We prove that several equivalent definitions of the SpraguendashGrundy function coincide (an exercise given in a course on combinatrial games given by Aviezri Fraenkel). Proof of the mu p version of the Erd337sndashKondashRado theorem using Katonas method Katona gave a simple proof of the Erd337sndashKondashRado theorem. We adapt his proof to the mu p setting. We are also able to prove uniqueness, but not stability. Examples of the GCD proof system If ( x , y )1 then ( x y , xy )1. The first part shows how to prove this using standard arguments and using the characterization of GCD as the minimal positive value obtained as an integer combination of the operands. The second part generalizes the argument to a lemma involving n variables. A combinatorial interpretation for the product of two geometric series in independent variables We give a combinatorial proof of the identity 1(1minus x )sdot1(1minus y ) 1(1minus x minus y xy ). Thirteenth proof of a result about tiling a rectangle Stan Wagon gave fourteen proofs of the following result about tiling a rectangle: if a rectangle can be tiled using rectangles with at least one integral side, then the tiled rectangle also has at least one integral side. We paraphrase his 13th proof. A positive proof of Dehns theorem Dehn proved that if a rectangle can be tiled by rectangles whose sides are commensurable, then the tiled rectangle is also commensurable. His proof, as described in Proofs from the book . applies a homomorphism which results in possibly negative side lengths. We modify his proof so that all side lengths are positive. The crucial ingredient is the following lemma: for each finite set of positive reals there is a basis (over the rationals) of positive reals such that every element in the set is a non-negative integral combination of base elements. We provide two proofs of this lemma, one due to us and one due to Avinoam Braverman. On the number of NOT gates needed to invert n inputs We solve the following puzzle: given an arbitrary supply of AND gates and OR gates, invert n inputs using as few NOT gates as possible. Orthogonal matrices with optimal L 2 norm Question 8 in Chapter 2 of The Probabilistic Method asks us to show that for every n times n orthogonal matrix and 1leq k leq n . there is a column such that the squared L 2 norm of its first k entries is at least k n . or at most k n . It also asks for an example in which this is tight. We exhibit such an example which works simultaneously for all k . Riddle concerning pm1 vectors A big sheet of paper contains 2 n rows consisting of all possible vectors of length n whose entries are 1 or minus1. Someone changes some of the entries to zero. Show that there must be a non-empty subset of the rows summing to zero. Probably much harder than you think it is Range of symmetric matrices mod 2 We show that the range of a symmetric matrix over GF (2) always contains its diagonal. We present both our algorithmic proof and a simple proof by Noga Alon. A simplification of our proof has been given by Soltys (Lemma 9). Lagranges proof of the four square theorem Deacutemonstration dun Theacuteoregraveme dArithmeacutetique, Nouveaux Meacutemoires de lAcadeacutemie royale des Science et Belles-Lettres de Berlin . anneacutee 1770. Lagranges proof of Wilsons theorem Deacutemonstration dun Theacuteoregraveme nouveau concernant les Nombres premiers, Nouveaux Meacutemoires de lAcadeacutemie royale des Science et Belles-Lettres de Berlin . anneacutee 1771. Hurwitzs proof of the transcendence of e Beweis der Transzendenz der Zahl e . Mathematische Annalen . Bd. 43, 1893, S. 220ndash221. Translation from Hersteins Topics in Algebra . p. 176ndash178. Gordans proof of the transcendence of e and pi Transcendenz von e und pi . Mathematische Annalen . Bd. 43, 1893, S. 222ndash224. Hilberts proof of the transcendence of e and pi Uumlber die Transzendenz der Zahlen e und pi . Mathematische Annalen . Bd. 43, 1893, S. 216ndash219. Hurwitzs proof that four-square-like identities only occur in dimensions 1,2,4,8 Uumlber die Komposition der quadratischen Formen von beliebig vielen Variablen, Nachrichten von der k. Gesellschaft der Wissenschaften zu Goumlttingen, Mathematisch-physikalische Klasse . 1898, S. 309ndash316. McKays easy proof of Cauchys theorem in group theory Another proof of Cauchys theorem, American Mathematical Monthly . Vol. 66 (February 1959), p. 119. Wilkies proof of the switching lemma Excerpt from Modegraveles non-standard en arithmeacutetique et theacuteorie des ensembles . Jean-Pierre Ressayre amp Alec J. Wilkie. A collection of poems by Shalom Shabazi Shalom Shabazi is the most important Jewish poet from Yemen. Following a facsimile of a diwan published by Seri and Tobi, we have copied a few of his Hebrew poems. The Kuzari in Arabic The Kuzari is an important Jewish theological work attributed to the medieval poet Yehuda Halevi. While originally written in Arabic, it is usually found in translation. Following an edition by Rabbi Qafih, we have copied the entire Arabic text. Self-portraits Other stuff Field ration (a poem by David Avidan) My translation of Avidans poem Menat Krav . in which Avidan, wary of the world, sleeps for 2000 years and awakens to a sci-fi future. 20 Patiencen A patience collection by Ella von Haunstein from the early 20th century, regrettably without the diagrams. An etiology of the major and minor scales Our own contribution to the mythological origins of the diatonic scales. On the background The background image is the final result of a 2D cellular automaton. For rules and animations, follow the link. Rhythms of resistance Rhythms of resistance is a world-wide network of political samba bands. I have prepared Python code for generating rhythms, along with two examples. There is also a cheat sheet if youre playing.

No comments:

Post a Comment