yes, i just tested a live rule swap in daemon mode too without trouble.<br>So this backtrace should be interesting.<br><br><div class="gmail_quote">On Wed, Dec 12, 2012 at 8:46 PM, Victor Julien <span dir="ltr"><<a href="mailto:lists@inliniac.net" target="_blank">lists@inliniac.net</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Ah, can you install the suricata-dbg package instead of the plain<br>
"suricata" one?<br>
<br>
That should give more info :)<br>
<div><div class="h5"><br>
On 12/12/2012 07:18 PM, Fernando Sclavo wrote:<br>
> Yes! I finally catched a core. I never runned a backtrace on a core<br>
> dump, so please tell me about any particular detail. A "standard" gdb<br>
> and backtrace output from the core dump:<br>
><br>
> idsuser@suricata:/$ sudo gdb /usr/bin/suricata core<br>
> GNU gdb (Ubuntu/Linaro 7.4-2012.04-0ubuntu2.1) 7.4-2012.04<br>
> Copyright (C) 2012 Free Software Foundation, Inc.<br>
> License GPLv3+: GNU GPL version 3 or later<br>
> <<a href="http://gnu.org/licenses/gpl.html" target="_blank">http://gnu.org/licenses/gpl.html</a>><br>
> This is free software: you are free to change and redistribute it.<br>
> There is NO WARRANTY, to the extent permitted by law.  Type "show copying"<br>
> and "show warranty" for details.<br>
> This GDB was configured as "x86_64-linux-gnu".<br>
> For bug reporting instructions, please see:<br>
> <<a href="http://bugs.launchpad.net/gdb-linaro/" target="_blank">http://bugs.launchpad.net/gdb-linaro/</a>>...<br>
> Reading symbols from /usr/bin/suricata...(no debugging symbols<br>
> found)...done.<br>
><br>
> warning: core file may not match specified executable file.<br>
> [New LWP 5708]<br>
> [New LWP 5710]<br>
> [New LWP 5712]<br>
> [New LWP 5714]<br>
> [New LWP 5709]<br>
> [New LWP 5713]<br>
> [New LWP 5682]<br>
> [New LWP 5715]<br>
> [New LWP 5689]<br>
> [New LWP 5705]<br>
> [New LWP 5688]<br>
> [New LWP 5692]<br>
> [New LWP 5683]<br>
> [New LWP 5686]<br>
> [New LWP 5694]<br>
> [New LWP 5691]<br>
> [New LWP 5701]<br>
> [New LWP 5693]<br>
> [New LWP 5711]<br>
> [New LWP 5697]<br>
> [New LWP 5707]<br>
> [New LWP 5698]<br>
> [New LWP 5696]<br>
> [New LWP 5706]<br>
> [New LWP 5700]<br>
> [New LWP 5702]<br>
> [New LWP 5703]<br>
> [New LWP 5684]<br>
> [New LWP 5704]<br>
> [New LWP 5685]<br>
> [New LWP 5690]<br>
> [New LWP 5699]<br>
> [New LWP 5687]<br>
> [New LWP 5695]<br>
><br>
> warning: Can't read pathname for load map: Input/output error.<br>
> [Thread debugging using libthread_db enabled]<br>
> Using host libthread_db library "/lib/x86_64-linux-gnu/libthread_db.so.1".<br>
> Core was generated by `suricata -D -c /etc/suricata/suricata.yaml<br>
> --af-packet'.<br>
> Program terminated with signal 11, Segmentation fault.<br>
> #0  0x000000000048c021 in ?? ()<br>
> (gdb) backtrace<br>
> #0  0x000000000048c021 in ?? ()<br>
> #1  0x0000000000458ceb in ?? ()<br>
> #2  0x0000000000458e97 in ?? ()<br>
> #3  0x0000000000510aa8 in ?? ()<br>
> #4  0x00000000004f2093 in ?? ()<br>
> #5  0x00000000004f4c0d in ?? ()<br>
> #6  0x0000000000513a85 in ?? ()<br>
> #7  0x00007fef526f7e9a in start_thread () from<br>
> /lib/x86_64-linux-gnu/libpthread.so.0<br>
> #8  0x00007fef51fbbcbd in clone () from /lib/x86_64-linux-gnu/libc.so.6<br>
> #9  0x0000000000000000 in ?? ()<br>
><br>
><br>
><br>
><br>
><br>
</div></div>> 2012/12/12 Victor Julien <<a href="mailto:lists@inliniac.net">lists@inliniac.net</a> <mailto:<a href="mailto:lists@inliniac.net">lists@inliniac.net</a>>><br>
<div><div class="h5">><br>
>     On 12/12/2012 07:11 PM, Fernando Sclavo wrote:<br>
>     > Victor, I haven't a core dump, I don't know why it's not generated,<br>
>     > because is enabled in sysctl.conf. Instead, an apport crash was<br>
>     > generated but without coredump inside. i will inverstigate more<br>
>     this issue.<br>
>     ><br>
>     > Suricata is installed from ppa (beta).<br>
>     ><br>
>     > Path:<br>
>     > idsuser@suricata:/var/log/suricata$ which suricata<br>
>     > /usr/bin/suricata<br>
>     ><br>
>     > Command:<br>
>     > sudo suricata -D -c /etc/suricata/suricata.yaml --af-packet<br>
><br>
>     Maybe you can run without the -D for a while, then it stays in the<br>
>     foreground. I think in daemon mode it changes work dir.<br>
><br>
>     Which reminds me, could there be a core file in "/", so "/core"?<br>
><br>
>     Wrt apport, what does:<br>
>     cat /proc/sys/kernel/core_pattern<br>
>     give you?<br>
><br>
>     Cheers,<br>
>     Victor<br>
><br>
><br>
>     ><br>
>     > suricata.yaml:<br>
>     ><br>
>     > idsuser@suricata:/var/log/suricata$ cat /etc/suricata/suricata.yaml<br>
>     > %YAML 1.1<br>
>     > ---<br>
>     ><br>
>     > # Suricata configuration file. In addition to the comments<br>
>     describing all<br>
>     > # options in this file, full documentation can be found at:<br>
>     > #<br>
>     ><br>
>     <a href="https://redmine.openinfosecfoundation.org/projects/suricata/wiki/Suricatayaml" target="_blank">https://redmine.openinfosecfoundation.org/projects/suricata/wiki/Suricatayaml</a><br>
>     ><br>
>     ><br>
>     > # Number of packets allowed to be processed simultaneously.<br>
>      Default is a<br>
>     > # conservative 1024. A higher number will make sure CPU's/CPU<br>
>     cores will be<br>
>     > # more easily kept busy, but may negatively impact caching.<br>
>     > #<br>
>     > # If you are using the CUDA pattern matcher (b2g_cuda below),<br>
>     different<br>
>     > rules<br>
>     > # apply. In that case try something like 4000 or more. This is because<br>
>     > the CUDA<br>
>     > # pattern matcher scans many packets in parallel.<br>
>     > max-pending-packets: 65534<br>
>     ><br>
>     > # Runmode the engine should use. Please check --list-runmodes to<br>
>     get the<br>
>     > available<br>
>     > # runmodes for each packet acquisition method. Defaults to "autofp"<br>
>     > (auto flow pinned<br>
>     > # load balancing).<br>
>     > runmode: workers<br>
>     ><br>
>     > # Specifies the kind of flow load balancer used by the flow pinned<br>
>     > autofp mode.<br>
>     > #<br>
>     > # Supported schedulers are:<br>
>     > #<br>
>     > # round-robin       - Flows assigned to threads in a round robin<br>
>     fashion.<br>
>     > # active-packets    - Flows assigned to threads that have the lowest<br>
>     > number of<br>
>     > #                     unprocessed packets (default).<br>
>     > # hash              - Flow alloted usihng the address hash. More<br>
>     of a random<br>
>     > #                     technique. Was the default in Suricata 1.2.1 and<br>
>     > older.<br>
>     > #<br>
>     > #autofp-scheduler: active-packets<br>
>     ><br>
>     > # Run suricata as user and group.<br>
>     > #run-as:<br>
>     > #  user: suri<br>
>     > #  group: suri<br>
>     ><br>
>     > # Default pid file.<br>
>     > # Will use this file if no --pidfile in command options.<br>
>     > pid-file: /var/run/suricata.pid<br>
>     ><br>
>     > # Daemon working directory<br>
>     > # Suricata will change directory to this one if provided<br>
>     > # Default: "/"<br>
>     > #daemon-directory: "/"<br>
>     ><br>
>     > # Preallocated size for packet. Default is 1514 which is the classical<br>
>     > # size for pcap on ethernet. You should adjust this value to the<br>
>     highest<br>
>     > # packet size (MTU + hardware header) on your system.<br>
>     > #default-packet-size: 1514<br>
>     ><br>
>     > # The default logging directory.  Any log or output file will be<br>
>     > # placed here if its not specified with a full path name.  This can be<br>
>     > # overridden with the -l command line parameter.<br>
>     > default-log-dir: /var/log/suricata<br>
>     ><br>
>     > # Configure the type of alert (and other) logging you would like.<br>
>     > outputs:<br>
>     ><br>
>     >   # a line based alerts log similar to Snort's fast.log<br>
>     >   - fast:<br>
>     >       enabled: yes<br>
>     >       filename: fast.log<br>
>     >       append: yes<br>
>     >       #filetype: regular # 'regular', 'unix_stream' or 'unix_dgram'<br>
>     ><br>
>     >   # alert output for use with Barnyard2<br>
>     >   - unified2-alert:<br>
>     >       enabled: yes<br>
>     >       filename: unified2.alert<br>
>     ><br>
>     >       # File size limit.  Can be specified in kb, mb, gb.  Just a<br>
>     number<br>
>     >       # is parsed as bytes.<br>
>     >       #limit: 32mb<br>
>     ><br>
>     >   # a line based log of HTTP requests (no alerts)<br>
>     >   - http-log:<br>
>     >       enabled: yes<br>
>     >       filename: http.log<br>
>     >       append: yes<br>
>     >       extended: yes     # enable this for extended logging information<br>
>     >       #custom: yes       # enabled the custom logging format<br>
>     (defined by<br>
>     > customformat)<br>
>     >       #customformat: "%{%D-%H:%M:%S}t.%z %{X-Forwarded-For}i %H %m<br>
>     %h %u<br>
>     > %s %B %a:%p -> %A:%P"<br>
>     >       #filetype: regular # 'regular', 'unix_stream' or 'unix_dgram'<br>
>     ><br>
>     >   # a line based log of TLS handshake parameters (no alerts)<br>
>     >   - tls-log:<br>
>     >       enabled: no  # Log TLS connections.<br>
>     >       filename: tls.log # File to store TLS logs.<br>
>     >       #extended: yes # Log extended information like fingerprint<br>
>     >       certs-log-dir: certs # directory to store the certificates files<br>
>     ><br>
>     >   # a line based log to used with pcap file study.<br>
>     >   # this module is dedicated to offline pcap parsing (empty output<br>
>     >   # if used with another kind of input). It can interoperate with<br>
>     >   # pcap parser like wireshark via the suriwire plugin.<br>
>     >   - pcap-info:<br>
>     >       enabled: no<br>
>     ><br>
>     >   # Packet log... log packets in pcap format. 2 modes of<br>
>     operation: "normal"<br>
>     >   # and "sguil".<br>
>     >   #<br>
>     >   # In normal mode a pcap file "filename" is created in the<br>
>     default-log-dir,<br>
>     >   # or are as specified by "dir". In Sguil mode "dir" indicates<br>
>     the base<br>
>     > directory.<br>
>     >   # In this base dir the pcaps are created in th directory structure<br>
>     > Sguil expects:<br>
>     >   #<br>
>     >   # $sguil-base-dir/YYYY-MM-DD/$filename.<timestamp><br>
>     >   #<br>
>     >   # By default all packets are logged except:<br>
>     >   # - TCP streams beyond stream.reassembly.depth<br>
>     >   # - encrypted streams after the key exchange<br>
>     >   #<br>
>     >   - pcap-log:<br>
>     >       enabled:  no<br>
>     >       filename: log.pcap<br>
>     ><br>
>     >       # File size limit.  Can be specified in kb, mb, gb.  Just a<br>
>     number<br>
>     >       # is parsed as bytes.<br>
>     >       limit: 1000mb<br>
>     ><br>
>     >       # If set to a value will enable ring buffer mode. Will keep<br>
>     > Maximum of "max-files" of size "limit"<br>
>     >       max-files: 2000<br>
>     ><br>
>     >       mode: normal # normal or sguil.<br>
>     >       #sguil-base-dir: /nsm_data/<br>
>     >       #ts-format: usec # sec or usec second format (default) is<br>
>     > filename.sec usec is filename.sec.usec<br>
>     >       use-stream-depth: no #If set to "yes" packets seen after<br>
>     reaching<br>
>     > stream inspection depth are ignored. "no" logs all packets<br>
>     ><br>
>     >   # a full alerts log containing much information for signature<br>
>     writers<br>
>     >   # or for investigating suspected false positives.<br>
>     >   - alert-debug:<br>
>     >       enabled: no<br>
>     >       filename: alert-debug.log<br>
>     >       append: yes<br>
>     >       #filetype: regular # 'regular', 'unix_stream' or 'unix_dgram'<br>
>     ><br>
>     >   # alert output to prelude (<a href="http://www.prelude-technologies.com/" target="_blank">http://www.prelude-technologies.com/</a>)<br>
>     only<br>
>     >   # available if Suricata has been compiled with --enable-prelude<br>
>     >   - alert-prelude:<br>
>     >       enabled: no<br>
>     >       profile: suricata<br>
>     >       log-packet-content: no<br>
>     >       log-packet-header: yes<br>
>     ><br>
>     >   # Stats.log contains data from various counters of the suricata<br>
>     engine.<br>
>     >   # The interval field (in seconds) tells after how long output<br>
>     will be<br>
>     > written<br>
>     >   # on the log file.<br>
>     >   - stats:<br>
>     >       enabled: yes<br>
>     >       filename: stats.log<br>
>     >       interval: 10<br>
>     ><br>
>     >   # a line based alerts log similar to fast.log into syslog<br>
>     >   - syslog:<br>
>     >       enabled: no<br>
>     >       # reported identity to syslog. If ommited the program name<br>
>     (usually<br>
>     >       # suricata) will be used.<br>
>     >       #identity: "suricata"<br>
>     >       facility: local5<br>
>     >       #level: Info ## possible levels: Emergency, Alert, Critical,<br>
>     >                    ## Error, Warning, Notice, Info, Debug<br>
>     ><br>
>     >   # a line based information for dropped packets in IPS mode<br>
>     >   - drop:<br>
>     >       enabled: no<br>
>     >       filename: drop.log<br>
>     >       append: yes<br>
>     >       #filetype: regular # 'regular', 'unix_stream' or 'unix_dgram'<br>
>     ><br>
>     >   # output module to store extracted files to disk<br>
>     >   #<br>
>     >   # The files are stored to the log-dir in a format "file.<id>" where<br>
>     > <id> is<br>
>     >   # an incrementing number starting at 1. For each file<br>
>     "file.<id>" a meta<br>
>     >   # file "file.<id>.meta" is created.<br>
>     >   #<br>
>     >   # File extraction depends on a lot of things to be fully done:<br>
>     >   # - stream reassembly depth. For optimal results, set this to 0<br>
>     > (unlimited)<br>
>     >   # - http request / response body sizes. Again set to 0 for optimal<br>
>     > results.<br>
>     >   # - rules that contain the "filestore" keyword.<br>
>     >   - file-store:<br>
>     >       enabled: no       # set to yes to enable<br>
>     >       log-dir: files    # directory to store the files<br>
>     >       force-magic: no   # force logging magic on all stored files<br>
>     >       force-md5: no     # force logging of md5 checksums<br>
>     >       #waldo: file.waldo # waldo file to store the file_id across runs<br>
>     ><br>
>     >   # output module to log files tracked in a easily parsable json<br>
>     format<br>
>     >   - file-log:<br>
>     >       enabled: no<br>
>     >       filename: files-json.log<br>
>     >       append: yes<br>
>     >       #filetype: regular # 'regular', 'unix_stream' or 'unix_dgram'<br>
>     ><br>
>     >       force-magic: no   # force logging magic on all logged files<br>
>     >       force-md5: no     # force logging of md5 checksums<br>
>     ><br>
>     > # Magic file. The extension .mgc is added to the value here.<br>
>     > #magic-file: /usr/share/file/magic<br>
>     > magic-file: /usr/share/file/magic<br>
>     ><br>
>     > # When running in NFQ inline mode, it is possible to use a simulated<br>
>     > # non-terminal NFQUEUE verdict.<br>
>     > # This permit to do send all needed packet to suricata via this a<br>
>     rule:<br>
>     > #        iptables -I FORWARD -m mark ! --mark $MARK/$MASK -j NFQUEUE<br>
>     > # And below, you can have your standard filtering ruleset. To activate<br>
>     > # this mode, you need to set mode to 'repeat'<br>
>     > # If you want packet to be sent to another queue after an ACCEPT<br>
>     decision<br>
>     > # set mode to 'route' and set next-queue value.<br>
>     > # On linux >= 3.6, you can set the fail-open option to yes to have the<br>
>     > kernel<br>
>     > # accept the packet if suricata is not able to keep pace.<br>
>     > nfq:<br>
>     > #  mode: accept<br>
>     > #  repeat-mark: 1<br>
>     > #  repeat-mask: 1<br>
>     > #  route-queue: 2<br>
>     > #  fail-open: yes<br>
>     ><br>
>     > # af-packet support<br>
>     > # Set threads to > 1 to use PACKET_FANOUT support<br>
>     > af-packet:<br>
>     >   - interface: eth4<br>
>     >     # Number of receive threads (>1 will enable experimental flow<br>
>     pinned<br>
>     >     # runmode)<br>
>     >     threads: 1<br>
>     >     # Default clusterid.  AF_PACKET will load balance packets<br>
>     based on flow.<br>
>     >     # All threads/processes that will participate need to have the<br>
>     same<br>
>     >     # clusterid.<br>
>     >     cluster-id: 99<br>
>     >     # Default AF_PACKET cluster type. AF_PACKET can load balance per<br>
>     > flow or per hash.<br>
>     >     # This is only supported for Linux kernel > 3.1<br>
>     >     # possible value are:<br>
>     >     #  * cluster_round_robin: round robin load balancing<br>
>     >     #  * cluster_flow: all packets of a given flow are send to the<br>
>     same<br>
>     > socket<br>
>     >     #  * cluster_cpu: all packets treated in kernel by a CPU are<br>
>     send to<br>
>     > the same socket<br>
>     >     cluster-type: cluster_flow<br>
>     >     # In some fragmentation case, the hash can not be computed. If<br>
>     > "defrag" is set<br>
>     >     # to yes, the kernel will do the needed defragmentation before<br>
>     > sending the packets.<br>
>     >     defrag: yes<br>
>     >     # To use the ring feature of AF_PACKET, set 'use-mmap' to yes<br>
>     >     use-mmap: yes<br>
>     >     # Ring size will be computed with respect to<br>
>     max_pending_packets and<br>
>     > number<br>
>     >     # of threads. You can set manually the ring size in number of<br>
>     > packets by setting<br>
>     >     # the following value. If you are using flow cluster-type and have<br>
>     > really network<br>
>     >     # intensive single-flow you could want to set the ring-size<br>
>     > independantly of the number<br>
>     >     # of threads:<br>
>     >     ring-size: 65534<br>
>     >     # On busy system, this could help to set it to yes to recover<br>
>     from a<br>
>     > packet drop<br>
>     >     # phase. This will result in some packets (at max a ring flush)<br>
>     > being non treated.<br>
>     >     #use-emergency-flush: yes<br>
>     >     # recv buffer size, increase value could improve performance<br>
>     >     buffer-size: 32mb<br>
>     >     # Set to yes to disable promiscuous mode<br>
>     >     # disable-promisc: no<br>
>     >     # Choose checksum verification mode for the interface. At the<br>
>     moment<br>
>     >     # of the capture, some packets may be with an invalid checksum<br>
>     due to<br>
>     >     # offloading to the network card of the checksum computation.<br>
>     >     # Possible values are:<br>
>     >     #  - kernel: use indication sent by kernel for each packet<br>
>     (default)<br>
>     >     #  - yes: checksum validation is forced<br>
>     >     #  - no: checksum validation is disabled<br>
>     >     #  - auto: suricata uses a statistical approach to detect when<br>
>     >     #  checksum off-loading is used.<br>
>     >     # Warning: 'checksum-validation' must be set to yes to have any<br>
>     > validation<br>
>     >     #checksum-checks: kernel<br>
>     >     # BPF filter to apply to this interface. The pcap filter syntax<br>
>     > apply here.<br>
>     >     #bpf-filter: port 80 or udp<br>
>     >     # You can use the following variables to activate AF_PACKET tap od<br>
>     > IPS mode.<br>
>     >     # If copy-mode is set to ips or tap, the traffic coming to the<br>
>     current<br>
>     >     # interface will be copied to the copy-iface interface. If<br>
>     'tap' is<br>
>     > set, the<br>
>     >     # copy is complete. If 'ips' is set, the packet matching a<br>
>     'drop' action<br>
>     >     # will not be copied.<br>
>     >     #copy-mode: ips<br>
>     >     #copy-iface: eth1<br>
>     >   - interface: eth5<br>
>     >     threads: 14<br>
>     >     cluster-id: 98<br>
>     >     cluster-type: cluster_flow<br>
>     >     defrag: yes<br>
>     >     use-mmap: yes<br>
>     >     ring-size: 1048576<br>
>     >     buffer-size: 2gb<br>
>     >     # disable-promisc: no<br>
>     ><br>
>     >   - interface: eth6<br>
>     >     threads: 1<br>
>     >     cluster-id: 97<br>
>     >     cluster-type: cluster_flow<br>
>     >     defrag: yes<br>
>     >     use-mmap: yes<br>
>     >     ring-size: 65534<br>
>     >     buffer-size: 32mb<br>
>     ><br>
>     >   - interface: eth7<br>
>     >     threads: 14<br>
>     >     cluster-id: 96<br>
>     >     cluster-type: cluster_flow<br>
>     >     defrag: yes<br>
>     >     use-mmap: yes<br>
>     >     ring-size: 1048576<br>
>     >     buffer-size: 2gb<br>
>     ><br>
>     > # You can specify a threshold config file by setting "threshold-file"<br>
>     > # to the path of the threshold config file:<br>
>     > # threshold-file: /etc/suricata/threshold.config<br>
>     ><br>
>     > # The detection engine builds internal groups of signatures. The<br>
>     engine<br>
>     > # allow us to specify the profile to use for them, to manage<br>
>     memory on an<br>
>     > # efficient way keeping a good performance. For the profile<br>
>     keyword you<br>
>     > # can use the words "low", "medium", "high" or "custom". If you<br>
>     use custom<br>
>     > # make sure to define the values at "- custom-values" as your<br>
>     convenience.<br>
>     > # Usually you would prefer medium/high/low.<br>
>     > #<br>
>     > # "sgh mpm-context", indicates how the staging should allot mpm<br>
>     contexts for<br>
>     > # the signature groups.  "single" indicates the use of a single<br>
>     context for<br>
>     > # all the signature group heads.  "full" indicates a mpm-context<br>
>     for each<br>
>     > # group head.  "auto" lets the engine decide the distribution of<br>
>     contexts<br>
>     > # based on the information the engine gathers on the patterns from<br>
>     each<br>
>     > # group head.<br>
>     > #<br>
>     > # The option inspection-recursion-limit is used to limit the<br>
>     recursive calls<br>
>     > # in the content inspection code.  For certain payload-sig<br>
>     combinations, we<br>
>     > # might end up taking too much time in the content inspection code.<br>
>     > # If the argument specified is 0, the engine uses an internally<br>
>     defined<br>
>     > # default limit.  On not specifying a value, we use no limits on the<br>
>     > recursion.<br>
>     > detect-engine:<br>
>     >   - profile: high<br>
>     >   - custom-values:<br>
>     >       toclient-src-groups: 2<br>
>     >       toclient-dst-groups: 2<br>
>     >       toclient-sp-groups: 2<br>
>     >       toclient-dp-groups: 3<br>
>     >       toserver-src-groups: 2<br>
>     >       toserver-dst-groups: 4<br>
>     >       toserver-sp-groups: 2<br>
>     >       toserver-dp-groups: 25<br>
>     >   - sgh-mpm-context: auto<br>
>     >   - inspection-recursion-limit: 3000<br>
>     >   # When rule-reload is enabled, sending a USR2 signal to the Suricata<br>
>     > process<br>
>     >   # will trigger a live rule reload. Experimental feature, use<br>
>     with care.<br>
>     >   - rule-reload: true<br>
>     >   # If set to yes, the loading of signatures will be made after<br>
>     the capture<br>
>     >   # is started. This will limit the downtime in IPS mode.<br>
>     >   #- delayed-detect: yes<br>
>     ><br>
>     > # Suricata is multi-threaded. Here the threading can be influenced.<br>
>     > threading:<br>
>     >   # On some cpu's/architectures it is beneficial to tie individual<br>
>     threads<br>
>     >   # to specific CPU's/CPU cores. In this case all threads are tied<br>
>     to CPU0,<br>
>     >   # and each extra CPU/core has one "detect" thread.<br>
>     >   #<br>
>     >   # On Intel Core2 and Nehalem CPU's enabling this will degrade<br>
>     performance.<br>
>     >   #<br>
>     >   set-cpu-affinity: no<br>
>     >   # Tune cpu affinity of suricata threads. Each family of threads<br>
>     can be<br>
>     > bound<br>
>     >   # on specific CPUs.<br>
>     >   cpu-affinity:<br>
>     >     - management-cpu-set:<br>
>     >         cpu: [ 0 ]  # include only these cpus in affinity settings<br>
>     >     - receive-cpu-set:<br>
>     >         cpu: [ 0 ]  # include only these cpus in affinity settings<br>
>     >     - decode-cpu-set:<br>
>     >         cpu: [ 0, 1 ]<br>
>     >         mode: "balanced"<br>
>     >     - stream-cpu-set:<br>
>     >         cpu: [ "0-1" ]<br>
>     >     - detect-cpu-set:<br>
>     >         cpu: [ "all" ]<br>
>     >         mode: "exclusive" # run detect threads in these cpus<br>
>     >         # Use explicitely 3 threads and don't compute number by using<br>
>     >         # detect-thread-ratio variable:<br>
>     >         # threads: 3<br>
>     >         prio:<br>
>     >           low: [ 0 ]<br>
>     >           medium: [ "1-2" ]<br>
>     >           high: [ 3 ]<br>
>     >           default: "medium"<br>
>     >     - verdict-cpu-set:<br>
>     >         cpu: [ 0 ]<br>
>     >         prio:<br>
>     >           default: "high"<br>
>     >     - reject-cpu-set:<br>
>     >         cpu: [ 0 ]<br>
>     >         prio:<br>
>     >           default: "low"<br>
>     >     - output-cpu-set:<br>
>     >         cpu: [ "all" ]<br>
>     >         prio:<br>
>     >            default: "medium"<br>
>     >   #<br>
>     >   # By default Suricata creates one "detect" thread per available<br>
>     > CPU/CPU core.<br>
>     >   # This setting allows controlling this behaviour. A ratio<br>
>     setting of 2<br>
>     > will<br>
>     >   # create 2 detect threads for each CPU/CPU core. So for a dual core<br>
>     > CPU this<br>
>     >   # will result in 4 detect threads. If values below 1 are used, less<br>
>     > threads<br>
>     >   # are created. So on a dual core CPU a setting of 0.5 results in<br>
>     1 detect<br>
>     >   # thread being created. Regardless of the setting at a minimum 1<br>
>     detect<br>
>     >   # thread will always be created.<br>
>     >   #<br>
>     >   detect-thread-ratio: 1.5<br>
>     ><br>
>     > # Cuda configuration.<br>
>     > cuda:<br>
>     >   # The "mpm" profile.  On not specifying any of these parameters, the<br>
>     > engine's<br>
>     >   # internal default values are used, which are same as the ones<br>
>     > specified here.<br>
>     >   - mpm:<br>
>     >       # Threshold limit for no of packets buffered to the GPU.<br>
>      Once we<br>
>     > hit this<br>
>     >       # limit, we pass the buffer to the gpu.<br>
>     >       packet-buffer-limit: 2400<br>
>     >       # The maximum length for a packet that we would buffer to<br>
>     the gpu.<br>
>     >       # Anything over this is MPM'ed on the CPU.  All entries > 0<br>
>     are valid.<br>
>     >       # Can be specified in kb, mb, gb.  Just a number indicates<br>
>     it's in<br>
>     > bytes.<br>
>     >       packet-size-limit: 1500<br>
>     >       # No of packet buffers we initialize.  All entries > 0 are<br>
>     valid.<br>
>     >       packet-buffers: 10<br>
>     >       # The timeout limit for batching of packets in secs.  If we<br>
>     don't<br>
>     > fill the<br>
>     >       # buffer within this timeout limit, we pass the currently filled<br>
>     > buffer to the gpu.<br>
>     >       # All entries > 0 are valid.<br>
>     >       batching-timeout: 1<br>
>     >       # Specifies whether to use page-locked memory whereever<br>
>     possible.<br>
>     > Accepted values<br>
>     >       # are "enabled" and "disabled".<br>
>     >       page-locked: enabled<br>
>     >       # The device to use for the mpm.  Currently we don't support<br>
>     load<br>
>     > balancing<br>
>     >       # on multiple gpus.  In case you have multiple devices on your<br>
>     > system, you<br>
>     >       # can specify the device to use, using this conf.  By default we<br>
>     > hold 0, to<br>
>     >       # specify the first device cuda sees.  To find out device-id<br>
>     > associated with<br>
>     >       # the card(s) on the system run "suricata --list-cuda-cards".<br>
>     >       device-id: 0<br>
>     >       # No of Cuda streams used for asynchronous processing. All<br>
>     values<br>
>     >> 0 are valid.<br>
>     >       # For this option you need a device with Compute Capability<br>
>     > 1.0 and<br>
>     >       # page-locked enabled to have any effect.<br>
>     >       cuda-streams: 2<br>
>     ><br>
>     > # Select the multi pattern algorithm you want to run for<br>
>     scan/search the<br>
>     > # in the engine. The supported algorithms are b2g, b2gc, b2gm, b3g,<br>
>     > wumanber,<br>
>     > # ac and ac-gfbs.<br>
>     > #<br>
>     > # The mpm you choose also decides the distribution of mpm contexts for<br>
>     > # signature groups, specified by the conf -<br>
>     "detect-engine.sgh-mpm-context".<br>
>     > # Selecting "ac" as the mpm would require<br>
>     "detect-engine.sgh-mpm-context"<br>
>     > # to be set to "single", because of ac's memory requirements,<br>
>     unless the<br>
>     > # ruleset is small enough to fit in one's memory, in which case<br>
>     one can<br>
>     > # use "full" with "ac".  Rest of the mpms can be run in "full" mode.<br>
>     > #<br>
>     > # There is also a CUDA pattern matcher (only available if Suricata was<br>
>     > # compiled with --enable-cuda: b2g_cuda. Make sure to update your<br>
>     > # max-pending-packets setting above as well if you use b2g_cuda.<br>
>     ><br>
>     > mpm-algo: ac<br>
>     ><br>
>     > # The memory settings for hash size of these algorithms can vary<br>
>     from lowest<br>
>     > # (2048) - low (4096) - medium (8192) - high (16384) - higher<br>
>     (32768) - max<br>
>     > # (65536). The bloomfilter sizes of these algorithms can vary from low<br>
>     > (512) -<br>
>     > # medium (1024) - high (2048).<br>
>     > #<br>
>     > # For B2g/B3g algorithms, there is a support for two different<br>
>     scan/search<br>
>     > # algorithms. For B2g the scan algorithms are B2gScan &<br>
>     B2gScanBNDMq, and<br>
>     > # search algorithms are B2gSearch & B2gSearchBNDMq. For B3g scan<br>
>     algorithms<br>
>     > # are B3gScan & B3gScanBNDMq, and search algorithms are B3gSearch &<br>
>     > # B3gSearchBNDMq.<br>
>     > #<br>
>     > # For B2g the different scan/search algorithms and, hash and bloom<br>
>     > # filter size settings. For B3g the different scan/search algorithms<br>
>     > and, hash<br>
>     > # and bloom filter size settings. For wumanber the hash and bloom<br>
>     filter<br>
>     > size<br>
>     > # settings.<br>
>     ><br>
>     > pattern-matcher:<br>
>     >   - b2gc:<br>
>     >       search-algo: B2gSearchBNDMq<br>
>     >       hash-size: high # FER2 low<br>
>     >       bf-size: medium<br>
>     >   - b2gm:<br>
>     >       search-algo: B2gSearchBNDMq<br>
>     >       hash-size: high # FER2 low<br>
>     >       bf-size: medium<br>
>     >   - b2g:<br>
>     >       search-algo: B2gSearchBNDMq<br>
>     >       hash-size: high # FER2 low<br>
>     >       bf-size: medium<br>
>     >   - b3g:<br>
>     >       search-algo: B3gSearchBNDMq<br>
>     >       hash-size: high # FER2 low<br>
>     >       bf-size: medium<br>
>     >   - wumanber:<br>
>     >       hash-size: high # FER2 low<br>
>     >       bf-size: medium<br>
>     ><br>
>     > # Defrag settings:<br>
>     ><br>
>     > defrag:<br>
>     >   memcap: 1gb<br>
>     >   hash-size: 131072<br>
>     >   trackers: 131072 # number of defragmented flows to follow<br>
>     >   max-frags: 131072 # number of fragments to keep (higher than<br>
>     trackers)<br>
>     >   prealloc: yes<br>
>     >   timeout: 10 # FER 60<br>
>     ><br>
>     > # Flow settings:<br>
>     > # By default, the reserved memory (memcap) for flows is 32MB. This is<br>
>     > the limit<br>
>     > # for flow allocation inside the engine. You can change this value<br>
>     to allow<br>
>     > # more memory usage for flows.<br>
>     > # The hash-size determine the size of the hash used to identify<br>
>     flows inside<br>
>     > # the engine, and by default the value is 65536.<br>
>     > # At the startup, the engine can preallocate a number of flows, to<br>
>     get a<br>
>     > better<br>
>     > # performance. The number of flows preallocated is 10000 by default.<br>
>     > # emergency-recovery is the percentage of flows that the engine<br>
>     need to<br>
>     > # prune before unsetting the emergency state. The emergency state is<br>
>     > activated<br>
>     > # when the memcap limit is reached, allowing to create new flows, but<br>
>     > # prunning them with the emergency timeouts (they are defined below).<br>
>     > # If the memcap is reached, the engine will try to prune flows<br>
>     > # with the default timeouts. If it doens't find a flow to prune,<br>
>     it will set<br>
>     > # the emergency bit and it will try again with more agressive<br>
>     timeouts.<br>
>     > # If that doesn't work, then it will try to kill the last time<br>
>     seen flows<br>
>     > # not in use.<br>
>     > # The memcap can be specified in kb, mb, gb.  Just a number<br>
>     indicates it's<br>
>     > # in bytes.<br>
>     ><br>
>     > flow:<br>
>     >   memcap: 3gb<br>
>     >   hash-size: 1048576 # FER 131072<br>
>     >   prealloc: 1048576 # FER error? 16gb<br>
>     >   emergency-recovery: 30<br>
>     ><br>
>     > # Specific timeouts for flows. Here you can specify the timeouts<br>
>     that the<br>
>     > # active flows will wait to transit from the current state to another,<br>
>     > on each<br>
>     > # protocol. The value of "new" determine the seconds to wait after a<br>
>     > hanshake or<br>
>     > # stream startup before the engine free the data of that flow it<br>
>     doesn't<br>
>     > # change the state to established (usually if we don't receive<br>
>     more packets<br>
>     > # of that flow). The value of "established" is the amount of<br>
>     > # seconds that the engine will wait to free the flow if it spend<br>
>     that amount<br>
>     > # without receiving new packets or closing the connection.<br>
>     "closed" is the<br>
>     > # amount of time to wait after a flow is closed (usually zero).<br>
>     > #<br>
>     > # There's an emergency mode that will become active under attack<br>
>     > circumstances,<br>
>     > # making the engine to check flow status faster. This configuration<br>
>     > variables<br>
>     > # use the prefix "emergency-" and work similar as the normal ones.<br>
>     > # Some timeouts doesn't apply to all the protocols, like "closed", for<br>
>     > udp and<br>
>     > # icmp.<br>
>     ><br>
>     > flow-timeouts:<br>
>     ><br>
>     >   default:<br>
>     >     new: 2 # 30<br>
>     >     established: 3 # 300<br>
>     >     closed: 0<br>
>     >     emergency-new: 1 # 10<br>
>     >     emergency-established: 2 # 100<br>
>     >     emergency-closed: 0<br>
>     >   tcp:<br>
>     >     new: 2 # 60<br>
>     >     established: 3 # 3600<br>
>     >     closed: 0 # 120<br>
>     >     emergency-new: 1 # 10<br>
>     >     emergency-established: 2 # 300<br>
>     >     emergency-closed: 0 # 20<br>
>     >   udp:<br>
>     >     new: 1 # 30<br>
>     >     established: 2 # 300<br>
>     >     emergency-new: 1 # 10<br>
>     >     emergency-established: 2 # 100<br>
>     >   icmp:<br>
>     >     new: 1 # 30<br>
>     >     established: 1 # 300<br>
>     >     emergency-new: 1 # 10<br>
>     >     emergency-established: 1 # 100<br>
>     ><br>
>     > # Stream engine settings. Here the TCP stream tracking and reaasembly<br>
>     > # engine is configured.<br>
>     > #<br>
>     > # stream:<br>
>     > #   memcap: 32mb                # Can be specified in kb, mb, gb.<br>
>      Just a<br>
>     > #                               # number indicates it's in bytes.<br>
>     > #   checksum-validation: yes    # To validate the checksum of received<br>
>     > #                               # packet. If csum validation is<br>
>     specified as<br>
>     > #                               # "yes", then packet with invalid csum<br>
>     > will not<br>
>     > #                               # be processed by the engine<br>
>     stream/app<br>
>     > layer.<br>
>     > #                               # Warning: locally generated<br>
>     trafic can be<br>
>     > #                               # generated without checksum due to<br>
>     > hardware offload<br>
>     > #                               # of checksum. You can control the<br>
>     > handling of checksum<br>
>     > #                # on a per-interface basis via the 'checksum-checks'<br>
>     > #                # option<br>
>     > #   max-sessions: 262144        # 256k concurrent sessions<br>
>     > #   prealloc-sessions: 32768    # 32k sessions prealloc'd<br>
>     > #   midstream: false            # don't allow midstream session<br>
>     pickups<br>
>     > #   async-oneside: false        # don't enable async stream handling<br>
>     > #   inline: no                  # stream inline mode<br>
>     > #<br>
>     > #   reassembly:<br>
>     > #     memcap: 64mb              # Can be specified in kb, mb, gb.<br>
>      Just<br>
>     > a number<br>
>     > #                               # indicates it's in bytes.<br>
>     > #     depth: 1mb                # Can be specified in kb, mb, gb.<br>
>      Just<br>
>     > a number<br>
>     > #                               # indicates it's in bytes.<br>
>     > #     toserver-chunk-size: 2560 # inspect raw stream in chunks of<br>
>     at least<br>
>     > #                               # this size.  Can be specified in<br>
>     kb, mb,<br>
>     > #                               # gb.  Just a number indicates it's in<br>
>     > bytes.<br>
>     > #     toclient-chunk-size: 2560 # inspect raw stream in chunks of<br>
>     at least<br>
>     > #                               # this size.  Can be specified in<br>
>     kb, mb,<br>
>     > #                               # gb.  Just a number indicates it's in<br>
>     > bytes.<br>
>     ><br>
>     > stream:<br>
>     >   memcap: 16gb<br>
>     >   checksum-validation: no      # reject wrong csums<br>
>     >   inline: no                  # auto will use inline mode in IPS mode,<br>
>     > yes or no set it statically<br>
>     >   max-sessions: 4500000<br>
>     >   prealloc-sessions: 2000000<br>
>     >   reassembly:<br>
>     >     memcap: 98gb<br>
>     >     depth: 150kb                  # reassemble 1mb into a stream<br>
>     >     toserver-chunk-size: 2560<br>
>     >     toclient-chunk-size: 2560<br>
>     ><br>
>     > # Host table:<br>
>     > #<br>
>     > # Host table is used by tagging and per host thresholding subsystems.<br>
>     > #<br>
>     > host:<br>
>     >   hash-size: 4096<br>
>     >   prealloc: 10000<br>
>     >   memcap: 512mb<br>
>     ><br>
>     > # Logging configuration.  This is not about logging IDS alerts, but<br>
>     > # IDS output about what its doing, errors, etc.<br>
>     > logging:<br>
>     ><br>
>     >   # The default log level, can be overridden in an output section.<br>
>     >   # Note that debug level logging will only be emitted if Suricata was<br>
>     >   # compiled with the --enable-debug configure option.<br>
>     >   #<br>
>     >   # This value is overriden by the SC_LOG_LEVEL env var.<br>
>     >   default-log-level: info<br>
>     ><br>
>     >   # The default output format.  Optional parameter, should default to<br>
>     >   # something reasonable if not provided.  Can be overriden in an<br>
>     >   # output section.  You can leave this out to get the default.<br>
>     >   #<br>
>     >   # This value is overriden by the SC_LOG_FORMAT env var.<br>
>     >   #default-log-format: "[%i] %t - (%f:%l) <%d> (%n) -- "<br>
>     ><br>
>     >   # A regex to filter output.  Can be overridden in an output section.<br>
>     >   # Defaults to empty (no filter).<br>
>     >   #<br>
>     >   # This value is overriden by the SC_LOG_OP_FILTER env var.<br>
>     >   default-output-filter:<br>
>     ><br>
>     >   # Define your logging outputs.  If none are defined, or they are all<br>
>     >   # disabled you will get the default - console output.<br>
>     >   outputs:<br>
>     >   - console:<br>
>     >       enabled: yes<br>
>     >   - file:<br>
>     >       enabled: yes<br>
>     >       filename: /var/log/suricata/suricata.log<br>
>     >   - syslog:<br>
>     >       enabled: no<br>
>     >       facility: local5<br>
>     >       format: "[%i] <%d> -- "<br>
>     ><br>
>     > # PF_RING configuration. for use with native PF_RING support<br>
>     > # for more info see <a href="http://www.ntop.org/PF_RING.html" target="_blank">http://www.ntop.org/PF_RING.html</a><br>
>     > pfring:<br>
>     >   - interface: eth0<br>
>     >     # Number of receive threads (>1 will enable experimental flow<br>
>     pinned<br>
>     >     # runmode)<br>
>     >     threads: 1<br>
>     ><br>
>     >     # Default clusterid.  PF_RING will load balance packets based<br>
>     on flow.<br>
>     >     # All threads/processes that will participate need to have the<br>
>     same<br>
>     >     # clusterid.<br>
>     >     cluster-id: 99<br>
>     ><br>
>     >     # Default PF_RING cluster type. PF_RING can load balance per<br>
>     flow or<br>
>     > per hash.<br>
>     >     # This is only supported in versions of PF_RING > 4.1.1.<br>
>     >     cluster-type: cluster_flow<br>
>     >     # bpf filter for this interface<br>
>     >     #bpf-filter: tcp<br>
>     >     # Choose checksum verification mode for the interface. At the<br>
>     moment<br>
>     >     # of the capture, some packets may be with an invalid checksum<br>
>     due to<br>
>     >     # offloading to the network card of the checksum computation.<br>
>     >     # Possible values are:<br>
>     >     #  - rxonly: only compute checksum for packets received by<br>
>     network card.<br>
>     >     #  - yes: checksum validation is forced<br>
>     >     #  - no: checksum validation is disabled<br>
>     >     #  - auto: suricata uses a statistical approach to detect when<br>
>     >     #  checksum off-loading is used. (default)<br>
>     >     # Warning: 'checksum-validation' must be set to yes to have any<br>
>     > validation<br>
>     >     #checksum-checks: auto<br>
>     >   # Second interface<br>
>     >   #- interface: eth1<br>
>     >   #  threads: 3<br>
>     >   #  cluster-id: 93<br>
>     >   #  cluster-type: cluster_flow<br>
>     ><br>
>     > pcap:<br>
>     >   - interface: eth4<br>
>     >     buffer-size: 1gb<br>
>     >     checksum-checks: no<br>
>     >     threads: 8<br>
>     >   - interface: eth5<br>
>     >     buffer-size: 1gb<br>
>     >     checksum-checks: no<br>
>     >     threads: 8<br>
>     >   - interface: eth6<br>
>     >     buffer-size: 1gb<br>
>     >     checksum-checks: no<br>
>     >     threads: 8<br>
>     >   - interface: eth7<br>
>     >     buffer-size: 1gb<br>
>     >     checksum-checks: no<br>
>     >     threads: 8<br>
>     ><br>
>     >     #bpf-filter: "tcp and port 25"<br>
>     >     # Choose checksum verification mode for the interface. At the<br>
>     moment<br>
>     >     # of the capture, some packets may be with an invalid checksum<br>
>     due to<br>
>     >     # offloading to the network card of the checksum computation.<br>
>     >     # Possible values are:<br>
>     >     #  - yes: checksum validation is forced<br>
>     >     #  - no: checksum validation is disabled<br>
>     >     #  - auto: suricata uses a statistical approach to detect when<br>
>     >     #  checksum off-loading is used. (default)<br>
>     >     # Warning: 'checksum-validation' must be set to yes to have any<br>
>     > validation<br>
>     >     #checksum-checks: auto<br>
>     >     # With some accelerator cards using a modified libpcap (like<br>
>     > myricom), you<br>
>     >     # may want to have the same number of capture threads as the<br>
>     number<br>
>     > of capture<br>
>     >     # rings. In this case, set up the threads variable to N to start N<br>
>     > threads<br>
>     >     # listening on the same interface.<br>
>     >     #threads: 16<br>
>     ><br>
>     > # For FreeBSD ipfw(8) divert(4) support.<br>
>     > # Please make sure you have ipfw_load="YES" and ipdivert_load="YES"<br>
>     > # in /etc/loader.conf or kldload'ing the appropriate kernel modules.<br>
>     > # Additionally, you need to have an ipfw rule for the engine to see<br>
>     > # the packets from ipfw.  For Example:<br>
>     > #<br>
>     > #   ipfw add 100 divert 8000 ip from any to any<br>
>     > #<br>
>     > # The 8000 above should be the same number you passed on the command<br>
>     > # line, i.e. -d 8000<br>
>     > #<br>
>     > ipfw:<br>
>     ><br>
>     >   # Reinject packets at the specified ipfw rule number.  This config<br>
>     >   # option is the ipfw rule number AT WHICH rule processing continues<br>
>     >   # in the ipfw processing system after the engine has finished<br>
>     >   # inspecting the packet for acceptance.  If no rule number is<br>
>     specified,<br>
>     >   # accepted packets are reinjected at the divert rule which they<br>
>     entered<br>
>     >   # and IPFW rule processing continues.  No check is done to verify<br>
>     >   # this will rule makes sense so care must be taken to avoid<br>
>     loops in ipfw.<br>
>     >   #<br>
>     >   ## The following example tells the engine to reinject packets<br>
>     >   # back into the ipfw firewall AT rule number 5500:<br>
>     >   #<br>
>     >   # ipfw-reinjection-rule-number: 5500<br>
>     ><br>
>     > # Set the default rule path here to search for the files.<br>
>     > # if not set, it will look at the current working dir<br>
>     > default-rule-path: /etc/suricata/rules<br>
>     > rule-files:<br>
>     >  - botcc.rules<br>
>     >  - ciarmy.rules<br>
>     >  - compromised.rules<br>
>     >  - drop.rules<br>
>     >  - dshield.rules<br>
>     >  - emerging-activex.rules<br>
>     >  - emerging-attack_response.rules<br>
>     >  - emerging-chat.rules<br>
>     >  - emerging-current_events.rules<br>
>     >  - emerging-dns.rules<br>
>     >  - emerging-dos.rules<br>
>     >  - emerging-exploit.rules<br>
>     >  - emerging-ftp.rules<br>
>     >  - emerging-games.rules<br>
>     >  - emerging-icmp_info.rules<br>
>     >  - emerging-icmp.rules<br>
>     >  - emerging-imap.rules<br>
>     >  - emerging-inappropriate.rules<br>
>     >  - emerging-malware.rules<br>
>     >  - emerging-misc.rules<br>
>     >  - emerging-mobile_malware.rules<br>
>     >  - emerging-netbios.rules<br>
>     >  - emerging-p2p.rules<br>
>     >  - emerging-policy.rules<br>
>     >  - emerging-pop3.rules<br>
>     >  - emerging-rpc.rules<br>
>     >  - emerging-scada.rules<br>
>     >  - emerging-scan.rules<br>
>     >  - emerging-shellcode.rules<br>
>     >  - emerging-smtp.rules<br>
>     >  - emerging-snmp.rules<br>
>     >  - emerging-sql.rules<br>
>     >  - emerging-telnet.rules<br>
>     >  - emerging-tftp.rules<br>
>     >  - emerging-trojan.rules<br>
>     >  - emerging-user_agents.rules<br>
>     >  - emerging-virus.rules<br>
>     >  - emerging-voip.rules<br>
>     >  - emerging-web_client.rules<br>
>     >  - emerging-web_server.rules<br>
>     >  - emerging-web_specific_apps.rules<br>
>     >  - emerging-worm.rules<br>
>     >  - rbn-malvertisers.rules<br>
>     >  - rbn.rules<br>
>     >  - tor.rules<br>
>     >  - decoder-events.rules # available in suricata sources under<br>
>     rules dir<br>
>     > # - stream-events.rules  # available in suricata sources under<br>
>     rules dir<br>
>     >  - http-events.rules    # available in suricata sources under<br>
>     rules dir<br>
>     >  - smtp-events.rules    # available in suricata sources under<br>
>     rules dir<br>
>     ><br>
>     > classification-file: /etc/suricata/classification.config<br>
>     > reference-config-file: /etc/suricata/reference.config<br>
>     ><br>
>     > # Holds variables that would be used by the engine.<br>
>     > vars:<br>
>     ><br>
>     >   # Holds the address group vars that would be passed in a Signature.<br>
>     >   # These would be retrieved during the Signature address parsing<br>
>     stage.<br>
>     >   address-groups:<br>
>     ><br>
>     >     HOME_NET: "[<a href="http://192.168.0.0/16,10.0.0.0/8,172.16.0.0/12" target="_blank">192.168.0.0/16,10.0.0.0/8,172.16.0.0/12</a><br>
>     <<a href="http://192.168.0.0/16,10.0.0.0/8,172.16.0.0/12" target="_blank">http://192.168.0.0/16,10.0.0.0/8,172.16.0.0/12</a>><br>
>     > <<a href="http://192.168.0.0/16,10.0.0.0/8,172.16.0.0/12" target="_blank">http://192.168.0.0/16,10.0.0.0/8,172.16.0.0/12</a>>]"<br>
>     ><br>
>     >     EXTERNAL_NET: "!$HOME_NET"<br>
>     ><br>
>     >     HTTP_SERVERS: "$HOME_NET"<br>
>     ><br>
>     >     SMTP_SERVERS: "$HOME_NET"<br>
>     ><br>
>     >     SQL_SERVERS: "$HOME_NET"<br>
>     ><br>
>     >     DNS_SERVERS: "$HOME_NET"<br>
>     ><br>
>     >     TELNET_SERVERS: "$HOME_NET"<br>
>     ><br>
>     >     AIM_SERVERS: "$EXTERNAL_NET"<br>
>     ><br>
>     >     DNP3_SERVER: "$HOME_NET"<br>
>     ><br>
>     >     DNP3_CLIENT: "$HOME_NET"<br>
>     ><br>
>     >     MODBUS_CLIENT: "$HOME_NET"<br>
>     ><br>
>     >     MODBUS_SERVER: "$HOME_NET"<br>
>     ><br>
>     >     ENIP_CLIENT: "$HOME_NET"<br>
>     ><br>
>     >     ENIP_SERVER: "$HOME_NET"<br>
>     ><br>
>     >   # Holds the port group vars that would be passed in a Signature.<br>
>     >   # These would be retrieved during the Signature port parsing stage.<br>
>     >   port-groups:<br>
>     ><br>
>     >     HTTP_PORTS: "80"<br>
>     ><br>
>     >     SHELLCODE_PORTS: "!80"<br>
>     ><br>
>     >     ORACLE_PORTS: 1521<br>
>     ><br>
>     >     SSH_PORTS: 22<br>
>     ><br>
>     >     DNP3_PORTS: 20000<br>
>     ><br>
>     > # Set the order of alerts bassed on actions<br>
>     > # The default order is pass, drop, reject, alert<br>
>     > action-order:<br>
>     >   - pass<br>
>     >   - drop<br>
>     >   - reject<br>
>     >   - alert<br>
>     ><br>
>     ><br>
>     > # Host specific policies for defragmentation and TCP stream<br>
>     > # reassembly.  The host OS lookup is done using a radix tree, just<br>
>     > # like a routing table so the most specific entry matches.<br>
>     > host-os-policy:<br>
>     >   # Make the default policy windows.<br>
</div></div>>     >   windows: [<a href="http://0.0.0.0/0" target="_blank">0.0.0.0/0</a> <<a href="http://0.0.0.0/0" target="_blank">http://0.0.0.0/0</a>> <<a href="http://0.0.0.0/0" target="_blank">http://0.0.0.0/0</a>>]<br>

>     >   bsd: []<br>
>     >   bsd-right: []<br>
>     >   old-linux: []<br>
>     >   linux: [<a href="http://10.0.0.0/8" target="_blank">10.0.0.0/8</a> <<a href="http://10.0.0.0/8" target="_blank">http://10.0.0.0/8</a>> <<a href="http://10.0.0.0/8" target="_blank">http://10.0.0.0/8</a>>,<br>

<div><div class="h5">>     192.168.1.100,<br>
>     > "8762:2352:6241:7245:E000:0000:0000:0000"]<br>
>     >   old-solaris: []<br>
>     >   solaris: ["::1"]<br>
>     >   hpux10: []<br>
>     >   hpux11: []<br>
>     >   irix: []<br>
>     >   macos: []<br>
>     >   vista: []<br>
>     >   windows2k3: []<br>
>     ><br>
>     ><br>
>     > # Limit for the maximum number of asn1 frames to decode (default 256)<br>
>     > asn1-max-frames: 256<br>
>     ><br>
>     > # When run with the option --engine-analysis, the engine will read<br>
>     each of<br>
>     > # the parameters below, and print reports for each of the enabled<br>
>     sections<br>
>     > # and exit.  The reports are printed to a file in the default log dir<br>
>     > # given by the parameter "default-log-dir", with engine reporting<br>
>     > # subsection below printing reports in its own report file.<br>
>     > engine-analysis:<br>
>     >   # enables printing reports for fast-pattern for every rule.<br>
>     >   rules-fast-pattern: yes<br>
>     >   # enables printing reports for each rule<br>
>     >   rules: yes<br>
>     ><br>
>     > #recursion and match limits for PCRE where supported<br>
>     > pcre:<br>
>     >   match-limit: 3500<br>
>     >   match-limit-recursion: 1500<br>
>     ><br>
>     ><br>
>     ###########################################################################<br>
>     > # Configure libhtp.<br>
>     > #<br>
>     > #<br>
>     > # default-config:           Used when no server-config matches<br>
>     > #   personality:            List of personalities used by default<br>
>     > #   request-body-limit:     Limit reassembly of request body for<br>
>     inspection<br>
>     > #                           by http_client_body & pcre /P option.<br>
>     > #   response-body-limit:    Limit reassembly of response body for<br>
>     inspection<br>
>     > #                           by file_data, http_server_body & pcre<br>
>     /Q option.<br>
>     > #   double-decode-path:     Double decode path section of the URI<br>
>     > #   double-decode-query:    Double decode query section of the URI<br>
>     > #<br>
>     > # server-config:            List of server configurations to use if<br>
>     > address matches<br>
>     > #   address:                List of ip addresses or networks for<br>
>     this block<br>
>     > #   personalitiy:           List of personalities used by this block<br>
>     > #   request-body-limit:     Limit reassembly of request body for<br>
>     inspection<br>
>     > #                           by http_client_body & pcre /P option.<br>
>     > #   response-body-limit:    Limit reassembly of response body for<br>
>     inspection<br>
>     > #                           by file_data, http_server_body & pcre<br>
>     /Q option.<br>
>     > #   double-decode-path:     Double decode path section of the URI<br>
>     > #   double-decode-query:    Double decode query section of the URI<br>
>     > #<br>
>     > # Currently Available Personalities:<br>
>     > #   Minimal<br>
>     > #   Generic<br>
>     > #   IDS (default)<br>
>     > #   IIS_4_0<br>
>     > #   IIS_5_0<br>
>     > #   IIS_5_1<br>
>     > #   IIS_6_0<br>
>     > #   IIS_7_0<br>
>     > #   IIS_7_5<br>
>     > #   Apache<br>
>     > #   Apache_2_2<br>
>     ><br>
>     ###########################################################################<br>
>     > libhtp:<br>
>     ><br>
>     >    default-config:<br>
>     >      personality: IDS<br>
>     ><br>
>     >      # Can be specified in kb, mb, gb.  Just a number indicates<br>
>     >      # it's in bytes.<br>
>     >      request-body-limit: 16kb<br>
>     >      response-body-limit: 16kb<br>
>     ><br>
>     >      # inspection limits<br>
>     >      request-body-minimal-inspect-size: 16kb<br>
>     >      request-body-inspect-window: 16kb<br>
>     >      response-body-minimal-inspect-size: 16kb<br>
>     >      response-body-inspect-window: 16kb<br>
>     ><br>
>     >      # decoding<br>
>     >      double-decode-path: no<br>
>     >      double-decode-query: no<br>
>     ><br>
>     >    server-config:<br>
>     ><br>
>     >      - apache:<br>
>     >          address: [<a href="http://192.168.0.0/16" target="_blank">192.168.0.0/16</a> <<a href="http://192.168.0.0/16" target="_blank">http://192.168.0.0/16</a>><br>
>     <<a href="http://192.168.0.0/16" target="_blank">http://192.168.0.0/16</a>>, <a href="http://127.0.0.0/8" target="_blank">127.0.0.0/8</a> <<a href="http://127.0.0.0/8" target="_blank">http://127.0.0.0/8</a>><br>

>     > <<a href="http://127.0.0.0/8" target="_blank">http://127.0.0.0/8</a>>, "::1"]<br>
>     >          personality: Apache_2_2<br>
>     >          # Can be specified in kb, mb, gb.  Just a number indicates<br>
>     >          # it's in bytes.<br>
>     >          request-body-limit: 16kb<br>
>     >          response-body-limit: 16kb<br>
>     >          double-decode-path: no<br>
>     >          double-decode-query: no<br>
>     ><br>
>     >      - iis7:<br>
>     >          address:<br>
>     >            - <a href="http://192.168.0.0/16" target="_blank">192.168.0.0/16</a> <<a href="http://192.168.0.0/16" target="_blank">http://192.168.0.0/16</a>><br>
>     <<a href="http://192.168.0.0/16" target="_blank">http://192.168.0.0/16</a>><br>
>     >            # - <a href="http://192.168.10.0/24" target="_blank">192.168.10.0/24</a> <<a href="http://192.168.10.0/24" target="_blank">http://192.168.10.0/24</a>><br>
>     <<a href="http://192.168.10.0/24" target="_blank">http://192.168.10.0/24</a>><br>
>     >          personality: IIS_7_0<br>
>     >          # Can be specified in kb, mb, gb.  Just a number indicates<br>
>     >          # it's in bytes.<br>
>     >          request-body-limit: 16kb<br>
>     >          response-body-limit: 16kb<br>
>     >          double-decode-path: no<br>
>     >          double-decode-query: no<br>
>     ><br>
>     > # Profiling settings. Only effective if Suricata has been built<br>
>     with the<br>
>     > # the --enable-profiling configure flag.<br>
>     > #<br>
>     > profiling:<br>
>     ><br>
>     >   # rule profiling<br>
>     >   rules:<br>
>     ><br>
>     >     # Profiling can be disabled here, but it will still have a<br>
>     >     # performance impact if compiled in.<br>
>     >     enabled: yes<br>
>     >     filename: rule_perf.log<br>
>     >     append: yes<br>
>     ><br>
>     >     # Sort options: ticks, avgticks, checks, matches, maxticks<br>
>     >     sort: avgticks<br>
>     ><br>
>     >     # Limit the number of items printed at exit.<br>
>     >     limit: 100<br>
>     ><br>
>     >   # packet profiling<br>
>     >   packets:<br>
>     ><br>
>     >     # Profiling can be disabled here, but it will still have a<br>
>     >     # performance impact if compiled in.<br>
>     >     enabled: yes<br>
>     >     filename: packet_stats.log<br>
>     >     append: yes<br>
>     ><br>
>     >     # per packet csv output<br>
>     >     csv:<br>
>     ><br>
>     >       # Output can be disabled here, but it will still have a<br>
>     >       # performance impact if compiled in.<br>
>     >       enabled: no<br>
>     >       filename: packet_stats.csv<br>
>     ><br>
>     >   # profiling of locking. Only available when Suricata was built with<br>
>     >   # --enable-profiling-locks.<br>
>     >   locks:<br>
>     >     enabled: no<br>
>     >     filename: lock_stats.log<br>
>     >     append: yes<br>
>     ><br>
>     > # Suricata core dump configuration. Limits the size of the core<br>
>     dump file to<br>
>     > # approximately max-dump. The actual core dump size will be a multiple<br>
>     > of the<br>
>     > # page size. Core dumps that would be larger than max-dump are<br>
>     truncated. On<br>
>     > # Linux, the actual core dump size may be a few pages larger than<br>
>     max-dump.<br>
>     > # Setting max-dump to 0 disables core dumping.<br>
>     > # Setting max-dump to 'unlimited' will give the full core dump file.<br>
>     > # On 32-bit Linux, a max-dump value >= ULONG_MAX may cause the<br>
>     core dump<br>
>     > size<br>
>     > # to be 'unlimited'.<br>
>     ><br>
>     > coredump:<br>
>     >   max-dump: unlimited<br>
>     ><br>
>     ><br>
>     ><br>
>     ><br>
>     > 2012/12/12 Victor Julien <<a href="mailto:lists@inliniac.net">lists@inliniac.net</a><br>
</div></div>>     <mailto:<a href="mailto:lists@inliniac.net">lists@inliniac.net</a>> <mailto:<a href="mailto:lists@inliniac.net">lists@inliniac.net</a><br>
<div class="im">>     <mailto:<a href="mailto:lists@inliniac.net">lists@inliniac.net</a>>>><br>
>     ><br>
>     >     On 12/12/2012 05:52 PM, Fernando Sclavo wrote:<br>
>     >     > Suricata recently dumped whith segfault, trying to reload rules.<br>
>     ><br>
>     >     Can you get us a backtrace?<br>
>     ><br>
>     >     The process should dump core to the directory you're starting<br>
>     from.<br>
>     ><br>
>     >     Also, can you share your config and commandline?<br>
>     ><br>
>     >     --<br>
>     >     ---------------------------------------------<br>
>     >     Victor Julien<br>
>     >     <a href="http://www.inliniac.net/" target="_blank">http://www.inliniac.net/</a><br>
>     >     PGP: <a href="http://www.inliniac.net/victorjulien.asc" target="_blank">http://www.inliniac.net/victorjulien.asc</a><br>
>     >     ---------------------------------------------<br>
>     ><br>
>     >     _______________________________________________<br>
>     >     Suricata IDS Users mailing list:<br>
>     >     <a href="mailto:oisf-users@openinfosecfoundation.org">oisf-users@openinfosecfoundation.org</a><br>
>     <mailto:<a href="mailto:oisf-users@openinfosecfoundation.org">oisf-users@openinfosecfoundation.org</a>><br>
</div>>     >     <mailto:<a href="mailto:oisf-users@openinfosecfoundation.org">oisf-users@openinfosecfoundation.org</a><br>
<div class="HOEnZb"><div class="h5">>     <mailto:<a href="mailto:oisf-users@openinfosecfoundation.org">oisf-users@openinfosecfoundation.org</a>>><br>
>     >     Site: <a href="http://suricata-ids.org" target="_blank">http://suricata-ids.org</a> | Support:<br>
>     >     <a href="http://suricata-ids.org/support/" target="_blank">http://suricata-ids.org/support/</a><br>
>     >     List:<br>
>     ><br>
>     <a href="https://lists.openinfosecfoundation.org/mailman/listinfo/oisf-users" target="_blank">https://lists.openinfosecfoundation.org/mailman/listinfo/oisf-users</a><br>
>     >     OISF: <a href="http://www.openinfosecfoundation.org/" target="_blank">http://www.openinfosecfoundation.org/</a><br>
>     ><br>
>     ><br>
><br>
><br>
>     --<br>
>     ---------------------------------------------<br>
>     Victor Julien<br>
>     <a href="http://www.inliniac.net/" target="_blank">http://www.inliniac.net/</a><br>
>     PGP: <a href="http://www.inliniac.net/victorjulien.asc" target="_blank">http://www.inliniac.net/victorjulien.asc</a><br>
>     ---------------------------------------------<br>
><br>
><br>
<br>
<br>
--<br>
---------------------------------------------<br>
Victor Julien<br>
<a href="http://www.inliniac.net/" target="_blank">http://www.inliniac.net/</a><br>
PGP: <a href="http://www.inliniac.net/victorjulien.asc" target="_blank">http://www.inliniac.net/victorjulien.asc</a><br>
---------------------------------------------<br>
<br>
_______________________________________________<br>
Suricata IDS Users mailing list: <a href="mailto:oisf-users@openinfosecfoundation.org">oisf-users@openinfosecfoundation.org</a><br>
Site: <a href="http://suricata-ids.org" target="_blank">http://suricata-ids.org</a> | Support: <a href="http://suricata-ids.org/support/" target="_blank">http://suricata-ids.org/support/</a><br>
List: <a href="https://lists.openinfosecfoundation.org/mailman/listinfo/oisf-users" target="_blank">https://lists.openinfosecfoundation.org/mailman/listinfo/oisf-users</a><br>
OISF: <a href="http://www.openinfosecfoundation.org/" target="_blank">http://www.openinfosecfoundation.org/</a><br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br><div>Regards,</div>
<div>Peter Manev</div><br>